基于spark的网络爬虫实现
来源:互联网 发布:淘宝天猫商城费用 编辑:程序博客网 时间:2024/05/16 10:19
爬虫是获取网络大数据的重要手段,爬虫是一种非常成熟的技术了,然而想着在spark环境下测试一下效果.
还是非常简单的,利用JavaSparkContext来构建,就可以采用原来java中的网页获取那一套来实现.
首先给定几个初始种子,生成一个JavaRDD对象即可
JavaRDD<String> rdd = sc.parallelize("urllist");
JavaRDD<String> content = rdd.map(new Function<String, String>() {
public String call(String url) throws Exception {
System.out.println(url);
CloseableHttpClient client = null;
HttpGet get = null;
CloseableHttpResponse response = null;
try {
//## 创建默认连接
client = HttpClients.createDefault();
get = new HttpGet(url);
response = client.execute(get);
HttpEntity entity = response.getEntity();
//## 获得输出字节流
ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream();
entity.writeTo(byteArrayOutputStream);
//## 转化为文档
String html = new String(byteArrayOutputStream.toByteArray(), Charsets.UTF_8);
Document document = Jsoup.parse(html);
return html;
} catch (Exception ex) {
ex.printStackTrace();
return "";
} finally {
if (response != null) {
response.close();
}
if (client != null) {
client.close();
}
}
}
});
当然可以从HTML再找到子页连接,继续以深度或者广度进行优先爬虫.
如输出http://docs.opencv.org/的文档如下:
- 基于spark的网络爬虫实现
- 基于spark的网络爬虫实现
- 基于Jsoup实现的简单网络爬虫
- 基于Scrapy框架下的Python网络爬虫的实现
- 基于Python、PyQuery实现的一个网络爬虫实例
- 【正完成】Java基于Jsoup的网络爬虫工具实现
- 基于Java的网络爬虫实现抓取网络小说(一)
- 基于WebKit的网络爬虫
- 基于WebKit的网络爬虫
- 基于python3的网络爬虫
- 网络爬虫的实现
- 网络爬虫的实现
- 网络爬虫的实现
- 网络爬虫的实现
- 网络爬虫的实现
- 基于HttpClient4.5实现网络爬虫
- 用于网页判断的智能代理技术的简单实现------------基于python实现(网络爬虫)
- Java网络爬虫的实现
- SHU1757 村村通工程(第二种算法:Dijkstra算法)
- jquery 自动补全插件 autocomplete
- xml文件读取
- VMware Workstation虚拟机启动故障总结
- 关于Android APP的打包和加固
- 基于spark的网络爬虫实现
- GitHub从fork到pull request之基础流程
- Activity 中 finish() 、onDestroy() 和System.exit()的区别
- 1003:Crashing Balloon
- Centos里tftp服务器的安装和配置
- Hive 体系架构
- Codeforces Round #337 (Div. 2)
- Kaggle Titanic Competition-第一部分
- 多核CPU关闭&开启