这篇文章介绍了Java 从互联网上爬邮箱的有关内容,主要是一个代码示例,小编觉得挺不错的,这里给大家分享下,需要的朋友可以了解。
网页爬虫:其实就是一个程序用于在互联网中获取符合指定规则的数据。
package day05; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.net.URL; import java.util.ArrayList; import java.util.List; import java.util.regex.Matcher; import java.util.regex.Pattern; public class SpiderDemo { public static void main(String[] args) throws IOException { List<String> list = getMailByWeb(); for (String mail : list) { System.out.println(mail); } } public static List<String> getMailByWeb() throws IOException { URL url = new URL("http://www.itheima.com/aboutt/1376.html"); BufferedReader input = new BufferedReader(new InputStreamReader(url.openStream())); String regex = "\\w+@\\w+(\\.\\w+)+"; Pattern p = Pattern.compile(regex); List<String> list = new ArrayList<String>(); String line = null; while ((line = input.readLine()) != null) { Matcher m = p.matcher(line); while (m.find()) { list.add(m.group()); } } return list; } }
总结
Jsoup解析html方法,通常被人称之为爬虫技术。(个人认为可能是返回的数据,只有一小部分是我们需要的,造成了数据的冗余,和网络延迟)。
위 내용은 Java를 사용하여 인터넷에서 사서함을 크롤링하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!