爬虫-链接验证
来源:互联网 发布:vuex刷新页面数据丢失 编辑:程序博客网 时间:2024/06/06 00:45
爬虫-链接验证
@(Python)[python]
- 爬虫-链接验证
- 链接验证
链接验证
编写一个程序,对给定的网页URL,下载该页面所有链接的页面。程序应该标记出所有具有404“Not Found”状态码的页面,将它们作为坏链接输出。
import requestsimport bs4url = 'http://ifeve.com/'response = requests.get(url)soup = bs4.BeautifulSoup(response.text, "lxml")a_list = soup.select('a')for a in a_list: a_url = a.get('href') try: response = requests.get(a_url) if response.status_code == requests.codes.not_found: print("Page %s is broken link" % a_url) else: print("Page %s is other type link" % a_url) response.raise_for_status() except: print("Page %s is Error" % a_url)
0 0
- 爬虫-链接验证
- 爬虫链接
- 磁力链接+爬虫
- 链接爬虫实战
- 爬虫抓链接
- python链接爬虫案例
- Python 链接爬虫
- NODEJS爬虫链接记录
- 爬虫之登陆验证
- 爬虫之页面链接获取
- 网络爬虫之链接网页
- Crawler——链接爬虫
- 跟踪链接实现python爬虫
- 验证链接(vb.net)
- js 链接地址验证
- 爬虫之验证码问题
- python爬虫-->验证码处理
- 网络爬虫-验证码登陆
- 动态规划(一)
- 多线程(2):
- 一个简单的servlet服务器
- Java设计模式笔记之责任链模式
- 多线程(3):
- 爬虫-链接验证
- HDOJ 2829 Lawrence(斜率优化DP)
- 多线程(4):
- qt实战(1)——简易文本浏览程序
- hdu-2767
- Java——图片滚动显示
- 多线程(5):
- 如何处理MySql死锁
- 深入理解Java:SimpleDateFormat安全的时间格式化