用WebCollector 2.x爬取新浪微博(无需手动获取cookie)
来源:互联网 发布:淘宝商品怎么看权重 编辑:程序博客网 时间:2024/06/07 13:35
用WebCollector 2.x 配合另一个项目WeiboHelper,就可以直接爬取新浪微博的数据(无需手动获取cookie)
1.导入WebCollector 2.x和WeiboHelper的所有jar包
两个项目的地址:http://git.oschina.net/webcollector/WebCollector
http://git.oschina.net/webcollector/WeiboHelper
2.示例代码:
package cn.edu.hfut.dmic.webcollector.weiboapi; import cn.edu.hfut.dmic.webcollector.crawler.DeepCrawler; import cn.edu.hfut.dmic.webcollector.model.Links; import cn.edu.hfut.dmic.webcollector.model.Page; import cn.edu.hfut.dmic.webcollector.net.HttpRequesterImpl; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; /** * * @author hu */ public class WeiboCrawler extends DeepCrawler{ public WeiboCrawler(String crawlPath) throws Exception { super(crawlPath); /*获取新浪微博的cookie,账号密码以明文形式传输,请使用小号*/ String cookie=WeiboCN.getSinaCookie("微博用户名", "微博密码"); HttpRequesterImpl myRequester=(HttpRequesterImpl) this.getHttpRequester(); myRequester.setCookie(cookie); } @Override public Links visitAndGetNextLinks(Page page) { /*抽取微博*/ Elements weibos=page.getDoc().select("div.c"); for(Element weibo:weibos){ System.out.println(weibo.text()); } /*如果要爬取评论,这里可以抽取评论页面的URL,返回*/ return null; } public static void main(String[] args) throws Exception{ WeiboCrawler crawler=new WeiboCrawler("/home/hu/data/weibo"); crawler.setThreads(3); /*对某人微博前5页进行爬取*/ for(int i=0;i<5;i++){ crawler.addSeed("http://weibo.cn/zhouhongyi?vt=4&page="+i); } crawler.start(1); } }
运行结果:
- 2015年来了,恭祝微博朋友和360用户新年万事如意!顺便向诸位汇报一下2014年360取得的科技进步:截止至2014年12月31日,360在过去的一年里专利申请总数达到1999件,其中国内发明专利申请:1570件;外观和实用新型专利:212件;海外专利申请:217件,累积申请专利总数已超四千件。 赞[1422] 转发[221] 评论[446] 收藏 01月01日 00:09 来自一加手机 不将就
- 转发了 徐付群 的微博:【山东省民政部门承诺:负伤致残原国民党抗战老兵可与八路军享同等待遇】 明确对生活在大陆农村的和城镇无工作单位且生活困难的原国民党抗战老兵,给予生活困难救助,救助标准可参照抗日时期入伍的在乡复员军人执行,所需资金通过各地自筹、社会捐赠等渠道解决。 http://t.cn/RZyVNr3 原图 赞[373] 原文转发[2246] 原文评论[399] 转发理由:山东民政部做的不错,赞!@孙春龙 #寻找你身边的抗战老兵# 赞[582] 转发[274] 评论[303] 收藏 2014-12-31 11:13:02 来自一加手机 不将就
- 转发了 360杀毒 的微博:2014年最后一天,小编的粉丝还不足10万。愁啊。。咋办?有了,小编刚搞到5台360儿童手表,介个当抽奖最好了。看这区区10万粉丝,中奖的概率还是很大滴。这样,只要①关注我的微博,②转发这条微博,③@ 一个好友,就有机会中奖!转起来吧,阿弥陀佛,转发的发大财!不转的发小财! [组图共2张] 原图 赞[94] 原文转发[2531] 原文评论[1076] 转发理由:少不了我这个拉低中奖率专业户,并祝大家新年发财 @360安全卫士 赞[313] 转发[464] 评论[656] 收藏 2014-12-31 14:51:13 来自360安全浏览器
- 转发了 敖歌 的微博:百度杀毒删不掉。@周鸿祎 @360安全卫士 @360客服 你们仨给我听好了,昨天找了你们的167号工程师远程帮我删百度杀毒软件,弄了半天说弄好了,今天回家开机,那狗东西又死而复活。你不给我弄好,就不要打“最安全”这个口号。百度杀毒已经在电脑里困扰我很长时间了,删卸N次没用。另:@百度杀毒 你去死吧 [组图共4张] 原图 赞[102] 原文转发[542] 原文评论[173] 转发理由:博主今年4月24日删除不掉百度杀毒,于是向360寻求援助,@360安全卫士 最终解决用户问题了吗?呵呵,百度狼性真的厉害//@关城小亮:反正我卸载百度杀毒,还是动用了360软件管家,要不然去不了根儿[黑线] 赞[530] 转发[428] 评论[966] 收藏 2014-12-30 19:28:37 来自一加手机 不将就
WebCollector爬虫官网:https://github.com/CrawlScript/WebCollector
0 0
- 用WebCollector 2.x爬取新浪微博(无需手动获取cookie)
- 用WebCollector 2.x爬取新浪微博(无需手动获取cookie)
- 用WebCollector 2.x爬取新浪微博(无需手动获取cookie)
- 用python爬取新浪微博数据 (无需手动获取cookie)
- 用WebCollector爬取新浪微博数据
- WebCollector教程——爬取新浪微博
- Java开源爬虫框架WebCollector—爬取新浪微博
- 获取新浪微博cookie
- WebCollector初探——微博信息爬取
- 用WebCollector爬取网站的图片
- WebCollector分布式爬取
- WebCollector 2.x 入门教程
- 利用WebCollector+selenium抓取新浪微博数据
- WebCollector爬取百度搜索引擎
- WebCollector爬取CSDN博客
- WebCollector 2.x 教程列表
- python爬取新浪微博内容
- 程序员教你通过获取api爬取新浪微博内容数据实战
- Google 抓取工具(Googlebot)汇总
- 利用 History API 无刷新更改地址栏
- Kafka使用Java客户端进行访问
- 【论文笔记】Learning Deep Face Representation
- 如果看了此文你还不懂傅里叶变换,那就过来掐死我吧【完整版】
- 用WebCollector 2.x爬取新浪微博(无需手动获取cookie)
- 攻击攻击再攻击 - 笔记
- linux系统查看tomcat日志
- 第40个python程序:类
- OFDM技术分析
- Qt界面设置背景(借鉴他人)
- 去除重复元素
- python练习题目
- 【论文笔记】FaceNet: A Unified Embedding for Face Recognition and Clustering