python 爬虫简单使用
来源:互联网 发布:疯狂java讲义最新版pdf 编辑:程序博客网 时间:2024/06/06 17:02
昨天实在无聊,顺手写了个爬虫玩。把某个网站的妹子图给扒完了。还是。。咳咳。。注意身体啊。
import requestsimport reimport urllib.requestfrom bs4 import BeautifulSoupurlj=[]urlg=[]def paiong(int): kaishi=requests.session() url="http://jandan.net/ooxx/page-"+str(int) r=kaishi.get(url=url) demo = r.text soup = BeautifulSoup(demo, 'lxml') # 解析器:lxml tagone = soup.find_all('img') for i in tagone: print(i) oo=str(i) jpg=re.findall('\/\/+(.*jpg)', oo) gif=re.findall('\/\/(.*?gif)', oo) if jpg!=None or jpg!='': for i in jpg: urlj.append(i) #print(i) if gif!=None or jpg!='': for l in gif: urlg.append(l) #print(l) print('\n')for k in range(1,160): paiong(k)#print(urlj)#print(urlg)numj=0for test in urlj: f = open(str(numj)+'.jpg','wb') req = urllib.request.urlopen('http://'+str(test)) buf = req.read() f.write(buf) numj += 1for test1 in urlj: f = open(str(numj)+'.gif','wb') req = urllib.request.urlopen('http://'+str(test1)) buf = req.read() #bufstr = buf.decode('utf-8','ignore') f.write(buf) numj += 1
阅读全文
0 0
- python 爬虫简单使用
- 使用python实现简单爬虫
- 使用python实现简单爬虫
- python 爬虫cookie的简单使用
- python scrapy爬虫简单安装使用
- Python爬虫之urllib简单使用
- python爬虫入门简单爬虫
- python-简单爬虫
- 简单python爬虫
- Python简单爬虫
- python 简单爬虫
- 简单python爬虫
- Python简单的爬虫
- Python简单爬虫
- python 简单爬虫实现
- python简单文本爬虫
- python超级简单爬虫
- python简单爬虫
- Attribute 和 Parameter 的区别
- Lintcode 3:Digit Counts
- Tarjan无向图最小权值割边
- uml类图&类的关系
- hdu5546 Ancient Go(bfs)
- python 爬虫简单使用
- [LeetCode] 181. Employees Earning More Than Their Managers
- (crm笔记1-3)Service层搭建
- Git:代码冲突常见解决方法
- 二分图匹配以及交叉染色
- eclipse使用git提交项目
- eclipse使用git下载项目
- UVA 336 A Node Too Far
- 51 nod 1392 装盒子(费用流||二分图 骚)