Python网络爬虫与信息提取-Day3-requests库(3)
来源:互联网 发布:中国的未来是一群正知 编辑:程序博客网 时间:2024/05/29 04:14
requests库主要方法解析
1.requests.request()方法
是所有方法的基础方法
requests.request(method, url, **kwargs)
·method :请求方式,对应get/put/post等7种
·url : 拟获取页面的url链接
·**kwargs:控制访问的参数,共13个
(1)method : 请求方式
r = requests.request('GET', url, **kwargs)
r = requests.request('HEAD', url, **kwargs)
r = requests.request('POST', url, **kwargs)
r = requests.request('PUT', url, **kwargs)
r = requests.request('PATCH', url, **kwargs)
r = requests.request('delete', url, **kwargs)
r = requests.request('OPTIONS', url, **kwargs)
它所对应的就是HTTP的请求功能
(2)**kwargs: 控制访问的参数,共13个
1)params : 字典或字节序列,作为参数增加到url中
2)data : 字典、字节序列或文件对象,作为Request的内容
3)json : JSON格式的数据,作为Request的内容
4)headers : 字典,HTTP定制头
5)cookies : 字典或CookieJar,Request中的cookie
6)auth : 元组,支持HTTP认证功能
7)files : 字典类型,传输文件
8)timeout : 设定超时时间,秒为单位
9)proxies : 字典类型,设定访问代理服务器,可以增加登录认证
10)allow_redirects : True/False,默认为True,重定向开关
11)stream : True/False,默认为True,获取内容立即下载开关
12)verify : True/False,默认为True,认证SSL证书开关
13)cert : 本地SSL证书路径
2.requests.get()方法
获取HTML网页的主要方法,对应于HTTP的GET
requests.get(url, params=None, **kwargs)
·url : 拟获取页面的url链接
·params : url中的额外参数,字典或字节流格式,可选
·**kwargs: 12个控制访问的参数
3.requests.head()方法
获取HTML网页头信息的方法,对应于HTTP的HEAD
requests.head(url, **kwargs)
·url : 拟获取页面的url链接
·**kwargs: 12个控制访问的参数
4.requests.post()方法
向HTML网页提交POST请求的方法,对应于HTTP的POST
requests.post(url, data=None, json=None, **kwargs)
·url : 拟更新页面的url链接
·data :字典、字节序列或文件,Request的内容
·json : JSON格式的数据,Request的内容
·**kwargs: 12个控制访问的参数
5.requests.put()方法
向HTML网页提交PUT请求的方法,对应于HTTP的PUT
requests.put(url, data=None, **kwargs)
·url : 拟更新页面的url链接
·data :字典、字节序列或文件,Request的内容
·**kwargs: 12个控制访问的参数
6.requests.patch()方法
向HTML网页提交局部修改请求,对应于HTTP的PATCH
requests.patch(url, data=None, **kwargs)
·url : 拟更新页面的url链接
·data :字典、字节序列或文件,Request的内容
·**kwargs: 12个控制访问的参数
7.requests.delete()方法
向HTML页面提交删除请求,对应于HTTP的DELETE
requests.delete(url, **kwargs)
·url : 拟删除页面的url链接
·**kwargs: 12个控制访问的
为什么这么设计呢?事实上,在使用后六个方法的时候,由于这些方法会常用到某些控制访问参数,所以它就把这些参数作为显示定义的参数量放到了函数的设计里面,不是常用的则放到了可选的控制访问参数里面
- Python网络爬虫与信息提取-Day3-requests库(3)
- Python网络爬虫与信息提取(一) requests库
- Python网络爬虫与信息提取-Day1-requests库(1)
- Python网络爬虫与信息提取-Day2-requests库(2)
- Python网络爬虫与信息提取-Day5-Requests库网络爬取实战
- Python 网络爬虫与信息获取(一)—— requests 库的网络爬虫
- Python网络爬虫与信息提取(一)
- Python网络爬虫与信息提取-Day6-Beautiful Soup库
- Python网络爬虫与信息提取(二) BeautifulSoup库
- 【MOOC】Python网络爬虫与信息提取-北京理工大学-part 3
- Python网络爬虫与信息提取(中国大学mooc)
- [mooc]python网络爬虫与信息提取(实例一)
- Python网络爬虫与信息提取(一)
- Python网络爬虫与信息提取 网络爬虫之规则
- MOOC-Python网络爬虫与信息提取-第二周 BeautifulSoup库入门与信息提取方法
- Python网络爬虫与信息提取-Day12-Re(正则表达式)库入门
- Python网络爬虫与信息提取-Day10-(实例)中国大学排名定向爬虫
- Python网络爬虫与信息提取-Day13-(实例)淘宝商品比价定向爬虫
- Intel FFmpeg QSV安装
- java 同步锁(synchronized)
- 绑定微信以及获取openId
- linux 变量
- 2017 Multi-University Training Contest
- Python网络爬虫与信息提取-Day3-requests库(3)
- 2463-学密码学一定得学程序
- linux配置免密码登录———— linux服务器可以ping通,但是访问不了--Ip地址:端口--关闭防火墙
- CDH 5.x 调优
- 丧心病狂的代码
- AAC音频裸码流时间戳与时间长度的关系
- idea运行不能及时更新class
- Python输入输出
- Android 接入银联支付、报错 org.simalliance.openmoileapi.SEService 解决方法