WebMagic(一)--抓取一个简单的页面
来源:互联网 发布:淘宝联盟券怎么领 编辑:程序博客网 时间:2024/05/20 07:37
简单介绍
最近在做项目要用到爬虫抓取网页的数据,然后保存到数据库中,最后选择了WebMagic,WebMagic是国人开发的一款爬虫,WebMagic官方对他的介绍是:
webmagic的主要特色:
●完全模块化的设计,强大的可扩展性。
●核心简单但是涵盖爬虫的全部流程,灵活而强大,也是学习爬虫入门的好材料。
●提供丰富的抽取页面API。
●无配置,但是可通过POJO+注解形式实现一个爬虫。
●支持多线程。
●支持分布式。
●支持爬取js动态渲染的页面。
●无框架依赖,可以灵活的嵌入到项目中去。
webmagic主要包括两个包:
●webmagic-core
webmagic核心部分,只包含爬虫基本模块和基本抽取器。webmagic-core的目标是成为网页爬虫的一个教科书般的实现。
●webmagic-extension
webmagic的扩展模块,提供一些更方便的编写爬虫的工具。包括注解格式定义爬虫、JSON、分布式等支持。
扩展包:
webmagic还包含两个可用的扩展包,因为这两个包都依赖了比较重量级的工具,所以从主要包中抽离出来,这些包需要下载源码后自己编译:
●webmagic-saxon
webmagic与Saxon结合的模块。Saxon是一个XPath、XSLT的解析工具,webmagic依赖Saxon来进行XPath2.0语法解析支持。
●webmagic-selenium
webmagic与Selenium结合的模块。Selenium是一个模拟浏览器进行页面渲染的工具,webmagic依赖Selenium进行动态页面的抓取。
在项目中,你可以根据需要依赖不同的包。
创建一个爬虫:
我使用的是IDEA工具,新建一个Maven module
点击下一步
点击下一步,下一步..
创建成功后
在pom.xml配置文件中加入以下依赖
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-core</artifactId>
<version>0.5.3</version>
</dependency>
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-extension</artifactId>
<version>0.5.3</version>
</dependency>
WebMagic 使用slf4j-log4j12作为slf4j的实现.如果你自己定制了slf4j的实现,请在项目中去掉此依赖。
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
</exclusions>
创建一个类并实现PageProcessor,PageProcessor是webmagic-core的一部分,定制一个PageProcessor即可实现自己的爬虫逻辑。
public class MywebMagic implements PageProcessor { private Site site = Site.me().setDomain("my.oschina.net"); public void process(Page page) { List<String> links = page.getHtml().links().regex("http://my\\.oschina\\.net/flashsword/blog/\\d+").all(); page.addTargetRequests(links); page.putField("title", page.getHtml().xpath("//div[@class='BlogEntity']/div[@class='BlogTitle']/h1").toString()); page.putField("content", page.getHtml().$("div.content").toString()); page.putField("tags",page.getHtml().xpath("//div[@class='BlogTags']/a/text()").all()); } public Site getSite() { return site; } public static void main(String[] args) { Spider.create(new MywebMagic()).addUrl("http://my.oschina.net/flashsword/blog") .addPipeline(new ConsolePipeline()).run(); }}
这里通过page.addTargetRequests()方法来增加要抓取的URL,并通过page.putField()来保存抽取结果。page.getHtml().xpath()则是按照某个规则对结果进行抽取,这里抽取支持链式调用。调用结束后,toString()表示转化为单个String,all()则转化为一个String列表。
Spider是爬虫的入口类。Pipeline是结果输出和持久化的接口,这里ConsolePipeline表示结果输出到控制台。
执行这个main方法,即可在控制台看到抓取结果。webmagic默认有3秒抓取间隔。
输出结果为:
他还提供了基于注解的一种方式:
webmagic-extension包括了注解方式编写爬虫的方法,只需基于一个POJO增加注解即可完成一个爬虫。以下仍然是抓取oschina博客的一段代码,功能与MywebMagic 完全相同:
@TargetUrl("http://my.oschina.net/flashsword/blog/\\d+")public class MywebMagic_1 { @ExtractBy("//title") private String title; @ExtractBy(value = "div.BlogContent",type = ExtractBy.Type.Css) private String content; @ExtractBy(value = "//div[@class='BlogTags']/a/text()", multi = true) private List<String> tags; public static void main(String[] args) { OOSpider.create( Site.me(), new ConsolePageModelPipeline(), OschinaBlog.class).addUrl("http://my.oschina.net/flashsword/blog").run(); }}
这是官网的例子,貌似没有输入。。。
- WebMagic(一)--抓取一个简单的页面
- WebMagic(一)--抓取一个简单的页面
- WebMagic抓取前端Ajax渲染的页面
- WebMagic抓取前端Ajax渲染的页面
- 抓取前端渲染的页面的技术webmagic
- 使用webmagic搭建一个简单的爬虫
- 使用webmagic搭建一个简单的爬虫
- 一个简单的webmagic爬虫 demo
- php爬虫教程(一) 简单的页面抓取
- Webmagic简单的讲解
- 用WebMagic框架写一个简单的爬虫
- 使用Jsoup 简单抓取页面的数据
- 简单抓取页面
- webmagic采集CSDN的Java_WebDevelop页面
- WebMagic无法输出抓取到的数据和文件
- springboot使用webmagic框架来抓取自己的博客信息
- 一个简单的网页抓取例子
- 一个简单的图片抓取器
- 第二章 一切都是对象
- Hiho 122 后缀数组三·重复旋律3(多个串的最长公共重复子串)
- 初识python(1)
- 蓝牙核心技术概述(四):蓝牙协议规范(HCI、L2CAP、SDP、RFOCMM)
- 进程与线程的区别
- WebMagic(一)--抓取一个简单的页面
- NOI元丹
- codeforces100726B——Common Subexpression Elimination
- java实现单向链表
- 2分查找
- 2016.10.29noip模拟总结
- C语言开发邮件系统-1
- Java到底有没有引用传递?
- 共享内存实现原理