python爬虫实战笔记---selenium爬取QQ空间说说并存至本地
来源:互联网 发布:mac版永恒战士2存档 编辑:程序博客网 时间:2024/05/23 17:13
关于selenium和PhantomJS的使用,见python爬虫实战笔记---selenium爬取QQ空间说说并存至本地(上)
以下,正式开始对QQ空间进行分析和爬取
站点分析:
此版本的QQ空间,是以笔者自己的QQ空间为基点,利用selenium驱动PhantomJS,从上往下按照时间顺序爬取好友发过的说说文字,按照好友名进行分类
进入QQ空间首页,选择账号密码登录
在Chrome调试器下,找到账号密码的输入框标签源码
利用selenium进行模拟登录
from selenium import webdriverimport timebrowser = webdriver.Chrome()browser.get('https://user.qzone.qq.com')username =password =browser.switch_to_frame('login_frame')log = browser.find_element_by_id("switcher_plogin")log.click()time.sleep(1)username = browser.find_element_by_id('u')username.send_keys(username)ps = browser.find_element_by_id('p')ps.send_keys(password)btn = browser.find_element_by_id('login_button')time.sleep(1)btn.click()time.sleep(2)browser.get('https://user.qzone.qq.com/{}'.format(username))browser.quit()
OK,这样就实现了模拟登录
接下来,就要进入说说主页,实现爬虫了
from selenium import webdriverimport timefrom bs4 import BeautifulSoupbrowser = webdriver.Chrome()browser.get('https://user.qzone.qq.com')user ='2413843731'password ='960306feng'browser.switch_to_frame('login_frame')log = browser.find_element_by_id("switcher_plogin")log.click()time.sleep(1)username = browser.find_element_by_id('u')username.send_keys(user)ps = browser.find_element_by_id('p')ps.send_keys(password)btn = browser.find_element_by_id('login_button')time.sleep(1)btn.click()time.sleep(2)browser.get('https://user.qzone.qq.com/{}'.format(username))friendAction = browser.find_element_by_id('tab_menu_friend')time.sleep(5)html = browser.page_sourcesoup = BeautifulSoup(html,"html.parser")a = soup.find_all('a', attrs={'data-clicklog': 'nick'})for i in range(len(a)): if(b[i].text == None): b[i].text = '无法显示' print(a[i].text + '\n' + b[i].text)
阅读全文
0 0
- python爬虫实战笔记---selenium爬取QQ空间说说并存至本地(上)
- python爬虫实战笔记---selenium爬取QQ空间说说并存至本地
- 一.selenium爬取好友QQ空间日志说说
- python3 [爬虫入门实战] 爬虫之使用selenium 爬取百度招聘内容并存mongodb
- Python爬虫入门实战系列(一)--爬取网络小说并存放至txt文件
- Python爬虫QQ空间好友说说
- Python爬取QQ空间日志及说说
- 爬取QQ空间数据<Python爬虫入门>
- 实战爬虫-爬取红袖添香并存入数据库
- python3 [爬虫入门实战] 爬虫之selenium 模拟QQ登陆抓取好友说说内容(暂留)
- Python爬虫(三):爬取猫眼电影网经典电影TOP100信息并存入本地Markdown文件(上)
- Python爬虫(三):爬取猫眼电影网经典电影TOP100信息并存入本地Markdown文件(下)
- 【爬虫】python selenium 爬取数据
- Python爬虫-Selenium爬取淘宝美食
- 【开源】爬取QQ空间说说及简易数据分析
- QQ空间"说说"分析 Python
- python3 [爬虫实战] selenium + requests 爬取安居客
- python3 [爬虫实战] selenium + requests 爬取安居客
- EnumProcessModulesEx return false
- CSS 颜色代码大全
- Codeforces Round #149 (Div. 2) E. XOR on Segment(21棵线段树处理每一位+区间异或)
- 深入理解Java虚拟机之内存详解
- Bomb(HDU 3555 数位DP)
- python爬虫实战笔记---selenium爬取QQ空间说说并存至本地
- MySQL 事务
- Hadoop入门介绍
- 51nod 1639绑鞋带(组合数学)
- MongoDB在windows下的安装与使用
- C++基础提炼
- 百度坐标、国测局坐标、WGS84坐标互转
- Ubuntu细节记录
- 欢迎使用CSDN-markdown编辑器