爬虫系列(二)——网页解析Jsoup
来源:互联网 发布:红蜘蛛破解软件 编辑:程序博客网 时间:2024/05/19 22:24
Jsoup是一款Java的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。
在爬虫采集网页领域主要作用是用HttpClient获取到网页后,使用Jsoup提取网页中需要的信息,Jsoup支持类似Jquery、CSS选择器,来获取需要的数据,使用非常方便。
下面结合代码简单展示如何使用Jsoup获取需要的页面数据。
一、Jsoup 入门demo
public class JsoupHello {public static void main(String[] args) throws Exception{CloseableHttpClient httpclient = HttpClients.createDefault(); // 创建httpclient实例 HttpGet httpget = new HttpGet("http://www.cnblogs.com/"); // 创建httpget实例 CloseableHttpResponse response = httpclient.execute(httpget); // 执行get请求 HttpEntity entity=response.getEntity(); // 获取返回实体 String content=EntityUtils.toString(entity, "utf-8"); response.close(); // 关闭流和释放系统资源 Document doc=Jsoup.parse(content); // 解析网页 得到文档对象 Elements elements=doc.getElementsByTag("title"); // 获取tag是title的所有DOM元素 Element element=elements.get(0); // 获取第1个元素 String title=element.text(); // 返回元素的文本 System.out.println("网页标题是:"+title); Element element2=doc.getElementById("site_nav_top"); // 获取id=site_nav_top的DOM元素 String navTop=element2.text(); // 返回元素的文本 System.out.println("口号:"+navTop); }}1、使用httpClient 获取网页
2、使用jsoup parse解析网页,并根据丰富的getElement方法按照不同的属性获取元素值
二、常用查找dom元素方法
1、根据标签名(tagName)查找dom
Elements elements=doc.getElementsByTag("title"); //获取tag是title的所有dom元素 Element element= elements.get(0); //获取第一个 System.out.println(element.text());//输出元素txt值2、根据元素Id查找
Element elementById=doc.getElementById("footer"); System.out.println(elementById.text());3、根据class 名查找
Elements elementsByClass=doc.getElementsByClass("post_item"); for(Element e:elementsByClass) { System.out.println(e.html()); }4、根据attribute属性名查找
//根据属性名(如:id,width) 查询dom Elements elementsByAttr=doc.getElementsByAttribute("width"); for(Element e2:elementsByAttr) { System.out.println(e2.toString()); }5、根据attribute和attributeValue共同查找
//根据属性名&值共同查找dom Elements elementsByAttrValue=doc.getElementsByAttributeValue("width", "142"); System.out.println(elementsByAttrValue.toString());三、使用Jsoup选择器查找dom元素
1、class类选择器使用
//class 使用. 中间空格 Elements eleLinks= doc.select(".post_item .post_item_body h3 a"); for(Element el:eleLinks) { System.out.println(el.text()); }2、带有href超链接的a标签查找
//css语法 带有href 属性的a元素 Elements elea= doc.select("a[href]"); for(Element ea:eleLinks) { System.out.println(ea.toString()); }3、查找图片标签
//img图片 Elements imgs= doc.select("img[src$=.png]");//查找img标签,后缀为png的所有图片dom for(Element ea:imgs) { System.out.println(ea.toString()); }
4、根据dom Id查找元素
//根据dom id获取元素 ,text返回a的中文文本信息,html返回a标签链接信息 Element eleId=doc.select("#friend_link").first(); System.out.println("##############纯文本"+eleId.text()); System.out.println("##############纯文本"+eleId.html());
5、获取dom元素中指定属性值
Elements eleLinks= doc.select(".post_item .post_item_body h3 a"); for(Element el:eleLinks) { System.out.println("***********************标题是"+el.text()); //获取所有文本 System.out.println("***********************连接是"+el.attr("href")); //获取所有博客链接 dom a 里的属性值 }
1 0
- 爬虫系列(二)——网页解析Jsoup
- 【爬虫系列】第二部分 网页解析Jsoup
- Jsoup解析网页(二)爬虫解析一个完整的网页
- java 爬虫 网页解析(Jsoup)
- jsoup解析网页二
- Java爬虫入门简介(二) —— Jsoup解析HTML页面
- Android利用jsoup爬虫爬网页数据(二)
- 【Java Utility】Jsoup网页爬虫工具--文档解析及转换【二】
- 网页解析利器——jsoup
- Java爬虫系列之二网页解析【爬取知乎首页信息】
- Android Jsoup网页爬虫—>程序猿面试指南App
- Jsoup网页爬虫案例
- 爬虫-jsoup 数据解析
- 【网络爬虫】【java】微博爬虫(四):数据处理——jsoup工具解析html、dom4j读写xml
- Jsoup解析Html(二)
- 爬虫系列(一)——网页请求HttpClient
- 网页爬虫框架jsoup介绍
- jsoup爬虫爬取网页
- Java的ClassLoader分析与Jettty的WebAppClassLoader
- ContentResolver 内容访问者访问手机联系人
- 一个菜鸟的APP完整的血泪开发之路之一
- C语言中结构体的位域(bit-fields)
- Jetty的Servlt请求路由与ContextHandlerColleection的实现
- 爬虫系列(二)——网页解析Jsoup
- Composer笔记(一)补充:在linux下安装PHP Composer(完全安装)
- sizeof 和strlen的区别和联系
- PAT A1039. Course List for Student (25)
- iOS开发 - 用AVPlayer封装一个视频播放器
- Jetty之WebAppContext
- android 线程间通信几种方式
- 进程间通信
- 线段树基础入门