python 3.0 网络爬虫 2
来源:互联网 发布:淘宝评价福利图 编辑:程序博客网 时间:2024/04/30 17:39
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。
类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。
在Python 2.x 中,我们使用urllib2这个组件来抓取网页。到Python 3.0中,urllib2模块已经被分割名为urllib.request和urllib.error的几个模块。 它以urlopen函数的形式提供了一个非常简单的接口。
最简单的 urllib.request 的应用代码只需要四行。
我们新建一个文件urllib2_test01.py来感受一下:
import urllib.request response = urllib.request.urlopen("http://www.baidu.com/")html = response.read()print (html)
我们可以打开百度主页,右击,选择查看源代码(火狐OR谷歌浏览器均可),会发现也是完全一样的内容。
也就是说,上面这四行代码将我们访问百度时浏览器收到的代码们全部打印了出来。
这就是一个最简单的例子。
除了"http:",URL同样可以使用"ftp:","file:"等等来替代。
HTTP是基于请求和应答机制的:
客户端提出请求,服务端提供应答。
urllib.request 在它最简单的使用形式中你将用你要请求的地址创建一个Request对象,
通过调用urlopen并传入Request对象,将返回一个相关请求response对象,
这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。
我们新建一个文件urllib2_test02.py来感受一下:
import urllib.request req = urllib.request.Request('http://www.baidu.com') response = urllib.request.urlopen(req) the_page = response.read() print (the_page)可以看到输出的内容和test01是一样的。
urllib.request 使用相同的接口处理所有的URL头。
在HTTP请求时,允许你做额外的两件事。
1.发送data表单数据
这个内容相信做过Web端的都不会陌生,
有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。
在HTTP中,这个经常使用熟知的POST请求发送。
这个通常在你提交一个HTML表单时由你的浏览器来做。
并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。
一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。
编码工作使用函数不是上文中的 urllib.request ,而是 urllib.parse
我们新建一个文件urllib2_test03.py来感受一下:
import urllib.parseimport urllib.request url = 'http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn' values = {'name' : 'TT', 'location' : 'TJU', 'language' : 'Python' } data = urllib.parse.urlencode(values).encode(encoding='UTF8') # 编码工作 req = urllib.request.Request(url, data) # 发送请求同时传data表单 response = urllib.request.urlopen(req) #接受反馈的信息 the_page = response.read() #读取反馈的内容 print (the_page)
如果没有传送data参数,
urllib.request使用GET方式的请求。
GET和POST请求的不同之处是POST请求通常有"副作用",
它们会由于某种途径改变系统状态(例如提交成堆垃圾到你的门口)。
Data同样可以通过在Get请求的URL本身上面编码来传送。
import urllib.parseimport urllib.request url = 'http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn' data = {} data['name'] = 'WHY' data['location'] = 'SDU' data['language'] = 'Python' url_values = urllib.parse.urlencode(data) print (url_values) full_url = url + '?' + url_values data = urllib.request.urlopen(full_url)
2.设置Headers到http请求
有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。
浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。
下面的例子发送跟上面一样的内容,但把自身模拟成Internet Explorer。
(多谢大家的提醒,现在这个Demo已经不可用了,不过原理还是那样的)。
import urllib.parseimport urllib.request url = 'http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn' user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' values = {'name' : 'WHY', 'location' : 'SDU', 'language' : 'Python' } headers = { 'User-Agent' : user_agent } data = urllib.parse.urlencode(values).encode(encoding='UTF8') req = urllib.request.Request(url, data, headers) response = urllib.request.urlopen(req) the_page = response.read()
- python 3.0 网络爬虫 2
- python网络爬虫2
- [Python]网络爬虫2
- python 3.0 网络爬虫 1
- python 3.0 网络爬虫 3
- Python 2 的网络爬虫
- Python网络爬虫2 ---- scrapy爬虫架构介绍和初试
- 《用python写网络爬虫》笔记2
- 异步网络爬虫的Python实现(2)
- Python-网络爬虫之BeautifulSoup(2)
- python 网络爬虫代码
- Python实现网络爬虫
- Python实现网络爬虫
- Python实现网络爬虫
- python实现网络爬虫
- python网络爬虫
- python实现网络爬虫
- Python 网络爬虫
- ASP.Net: EshineASPNet-基于ASP.Net敏捷开发开源框架
- MySQL分区
- mysql sum为空时默认显示0
- 20行JS代码贪吃蛇
- Spring集成RabbitMQ
- python 3.0 网络爬虫 2
- MD5算法
- FAT文件系统与EMMC存储芯片适配与性能优化
- 2017年一个新的开始
- mysql数据入门管理
- 【R】在centOS7下编译安装R3.3.2和R
- 数据意识崛起,从企业应用看BI软件的未来发展
- CSS实现垂直和s水平下拉菜单
- 四大组件