Python crawler(一):urllib的三种下载网页方法

来源:互联网 发布:詹姆斯各项数据排名 编辑:程序博客网 时间:2024/05/24 02:13

原教程来源于imooc

链接地址:http://www.imooc.com/learn/563

urllib的三种下载网页方法

1、测试代码

# urlopen的参数可以是request对象和urlfrom urllib import requestimport http.cookiejarurl = 'http://www.baidu.com'  # 指定url为百度首页print('第一种方法:')response1 = request.urlopen(url)  # 用urllib.request的urlopen方法,以url作为参数下载网页print(response1.getcode())print(len(response1.read()))print('第二种方法')req = request.Request(url)  # 创建request对象添加特殊处理,url作为参数req.add_header('user-agent', 'Mozilla/5.0')  # 把爬虫伪装成浏览器response2 = request.urlopen(req)  # urlopen方法的参数改为requestprint(response2.getcode())print(len(response2.read()))print('第三种方法')cj = http.cookiejar.CookieJar()  # 创建cookie容器opener = request.build_opener(request.HTTPCookieProcessor(cj))  # 创建opener,以cj为容器request.install_opener(opener)  # 为request安装opener,使request具有cookie处理能力response3 = request.urlopen(url)print(response3.getcode())print(cj)  # 打印cookie容器内容print(response3.read())

2、测试结果
测试结果

0 0
原创粉丝点击