课时12 第三节练习项目:爬取租房信息
来源:互联网 发布:淘宝上有什么网红的店 编辑:程序博客网 时间:2024/04/28 15:40
小猪租房http://bj.xiaozhu.com/search-duanzufang-p1-0/
首先爬取30页的详情页链接
from bs4 import BeautifulSoupimport requestspage_link = [] # <- 每个详情页的链接都存在这里,解析详情的时候就遍历这个列表然后访问就好啦~def get_page_link(page_number): for each_number in range(1,page_number): # 每页24个链接,这里输入的是页码 full_url = 'http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(each_number) wb_data = requests.get(full_url) soup = BeautifulSoup(wb_data.text,'lxml') for link in soup.select('a.resule_img_a'): # 找到这个 class 样为resule_img_a 的 a 标签即可 page_link.append(link.get('href'))get_page_link(30)#测试print(page_link)#测试
另外一种代码:(反爬虫封锁IP有待验证)
from bs4 import BeautifulSoupimport requestseach_link = []urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(str(i)) for i in range(1,10)]def get_each_page_link(urls): for url in urls: #print(url) wb_data = requests.get(url) #print(wb_data) Soup = BeautifulSoup(wb_data.text, 'lxml') for i in Soup.select('a.resule_img_a'): each_link.append(i.get('href'))#获取每一页的链接get_each_page_link(urls)print(each_link)
0 0
- 课时12 第三节练习项目:爬取租房信息
- Python实战1_3:爬取租房信息
- 四周实现爬虫系统(2)---爬取租房信息
- Python 爬虫学习2爬取租房网站信息
- Python爬虫--爬取赶集网的租房信息
- 使用BeautifulSoup爬取小猪短租的租房信息
- 课时11 第三节课程:真实世界中的网页解析
- 第12课时,自测
- 养只爬虫当宠物(Node.js爬虫爬取58同城租房信息)
- Python2 Python3 爬取赶集网租房信息,带源码分析
- 【R语言 爬虫】用R爬虫,爬取杭州安居客九堡租房信息
- 基于BeautifulSoup的58同城的南山区租房信息爬取
- 爬取广州链家租房信息,并用tableau进行数据分析
- scrapy爬虫案例爬取赶集网租房信息并入库
- Python爬虫入门 | 5 爬取小猪短租租房信息
- 信息安全第三节课总结
- Python实战_1_第一周_第二节练习项目:爬取商品信息
- 提高第12课时,自测
- Coins(弱小联盟十一专场)
- connect的bodyParser中间件处理文件上传
- Round #374解题报告
- 通过ssh用PC远程控制TK1
- malloc实现原理
- 课时12 第三节练习项目:爬取租房信息
- JS 实现简单的操作(数量,单价,金额)
- Intel Code Challenge Elimination Round D set
- HDU 5510 Bazinga 【strstr】
- java垃圾回收机制
- c++基础知识
- ubuntu16.04 安装 qq
- [UESTC 1061]秋实大哥与战争
- strcpy ,strncpy ,strlcpy和snprintf的使用