爬虫使用代理防封IP:HTTP Error 403: Forbidden

来源:互联网 发布:宁波seo大牛 编辑:程序博客网 时间:2024/05/23 17:16

在写爬虫爬取数据的时候,经常遇到如下的提示,

HTTPError403: Forbidden

之前已经写了一个使用多个headers 的笔记,但是这种还是只有一个IP 只不过是伪装为不同的浏览器而已,

所以想做到更近一步防止被封,还是需要及时更换不同IP,下面记录一下python 使用代理爬取的过程。

PS: 爬虫尽量不要太频繁的说。。。

解决方法:http://blog.csdn.net/shomy_liu/article/details/47066231


原创粉丝点击