python-快速使用urllib爬取网页(8-URLError)

来源:互联网 发布:华为硬件单片机笔试题 编辑:程序博客网 时间:2024/06/05 15:29

程序的执行难免遇到异常,发生异常不要紧,关键是要合理处理异常

在Python爬虫中,经常要处理与URL相关的异常
使用URL异常处理-URLError类进行处理
导入urllib.error模块

本节我们主要介绍两个类:URLError + HTTPError

import urllib.requestimport urllib.errortry:    urllib.request.urlopen("http://blog.csdn.net")except urllib.error.URLError as e:    print(e.code)    print(e.reason)

运行上述代码,出现403错误

产生URLError错误的原因:
a、连不上服务器
b、远程URL不存在
c、无网络
d、出发了HTTPError
上面例子就是触犯了HTTPError所导致

403是状态码

我们来总结一下各种状态码的含义
200 OK 一切正常
301 Moved Permanently 重定向到新的URL,永久性
302 Found 重定向到临时的URL,非永久性
304 Not Modified 请求的资源未更新
400 Bad Request 非法请求
401 Unauthorized 请求未经授期
403 Forfidden 禁止访问
404 Not Found 没有找到对应的页面
500 Internal Server Error 服务器内部出现错误
501 Not Implemented 服务器不支持实现请求所需要的功能

阅读全文
0 0
原创粉丝点击