使用jsoup分析网页

来源:互联网 发布:域名服务器dns 编辑:程序博客网 时间:2024/05/18 02:06
之前用过HTMLParser,许久不更新的东西了,印象中也没那么好用。
今天重新搜索了一下,发现jsoup很容易上手~选择器很好很强大。
支持DOM和选择器两种模式


1、下载
jsoup的网站很简洁:http://jsoup.org/
入门做的很不错:http://jsoup.org/cookbook/

2、简单的例子
以下示例用于抓取iteye首页的新闻及连接,共使用了3种方式获取元素:
选择器用组件的Id用组件的class
Java代码 复制代码 收藏代码
  1. package tests;
  2. import java.io.IOException;
  3. import org.jsoup.Jsoup;
  4. import org.jsoup.nodes.Document;
  5. import org.jsoup.nodes.Element;
  6. import org.jsoup.select.Elements;
  7. public class EgParseItEyeNews {
  8. public static void main(String[] args) throws IOException {
  9. String url = "http://www.iteye.com/";
  10. // 不加userAgent会被视为爬虫。。。。。
  11. Document doc = Jsoup.connect(url)
  12. .userAgent("Mozilla/5.0 (Windows; U; Windows NT 5.2) Gecko/2008070208 Firefox/3.0.1 ")
  13. .get();
  14. // Element news = doc.getElementById("news"); //1、通过ID
  15. Elements newsConents=doc.getElementsByClass("news_content");//2、通过class
  16. Element news=newsConents.first();
  17. if (news == null)
  18. System.out.println(doc);
  19. else {
  20. // System.out.println(news);
  21. // System.out.println("end of news****************\n");
  22. Elements elems = news.select("a"); // 3、通过选择器 , 把链接都提取出来
  23. for (Element element : elems) {
  24. System.out.println(element.text() + " \t链接为:" + element.attr("href"));
  25. }
  26. }
  27. }
  28. }


原创粉丝点击