Python爬虫实战一 | 抓取取校花网的所有妹子

来源:互联网 发布:数据存储加密解决方案 编辑:程序博客网 时间:2024/05/17 03:20

  今天晚上顺带就实际的写写工具,我们刚学完Python的基础语法!抓点妹子带回家~

  总结一下之前的吧,我写了关于Python爬虫的六节课程,也就是六篇文章,文章有点简洁,但是很细节,如果还有不懂的请加我QQ:1099718640,或者留言,小东看到了一定会及时回复的哦!愿和各位志同道合的程序猴子一起畅谈人生!哈哈~

  今天晚上,刚开完班会。。。老实说,小东大一的成绩很不好,全班倒数,无颜见父老啊,待在“卓越班”感觉自己负罪感满满,哎╮(╯▽╰)╭,在博客里吐槽一下啦~今后好好把公共基础课学好,大学到最终还是以成绩来衡量的,但还是要尽量地多去参加一下竞赛,哈哈~


这是在运行途中截得图,我故意输出的,哈哈~

# 抓取校花网 校花图片# 作者:DYBOY 小东# 时间:2017-09-06'''http://www.xiaohuar.com/list-1-0.html 第一页http://www.xiaohuar.com/list-1-1.html 第二页'''import requestsimport refrom bs4 import BeautifulSoup#以上作为基本引用def getGirls(girl_url):    main_url = 'http://www.xiaohuar.com'    header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'}    res = requests.get(girl_url,headers = header,timeout=10)    res.encoding = 'gb2312'    soup = BeautifulSoup(res.text,'html.parser')    for images in soup.select('.item'):        img_url = main_url + images.select('.item_t .img a img')[0]['src']        houzhui = img_url[-4:]        img_alt = images.select('.item_t .img a img')[0]['alt'] + houzhui        print(img_alt)        img = requests.get(img_url)        with open('xiaohua/' + img_alt,"wb") as code:            code.write(img.content)    print('ok!')def url_change():    for i in range(19,44):        url = 'http://www.xiaohuar.com/list-1-' + str(i) + '.html'        getGirls(url)#MAINurl_change()




部分成果


代码自己去github上去看~

注:本文属于原创文章,转载请注明本文地址!

作者QQ:1099718640

CSDN博客主页:http://blog.csdn.net/dyboy2017

Github开源项目:https://github.com/dyboy2017/xiaohua


阅读全文
1 0