Python爬虫Selenium使用
来源:互联网 发布:祛痘产品淘宝 编辑:程序博客网 时间:2024/06/06 15:03
官方文档:
http://selenium-python.readthedocs.io/installation.html#introduction
声明浏览器对象
Seleninum支持很多浏览器,但是如果系统中浏览器不存在就会报错
from selenium import webdriver # 引入webdriver包browser = webdriver.Chrome() # 声明chrome浏览器对象browser = webdriver.Firefox()browser = webdriver.Edge()browser = webdriver.Safari()
访问页面
from selenium import webdriver # 导入包browser = webdriver.Chrome() # 打开浏览器browser.get('https://www.taobao.com') # 进入网页print(browser.page_source) # 打印网页源代码browser.close() # 关闭浏览器
查找元素
单个元素 .find_element_*_*( )
browser = webdriver.Chrome() # 打开浏览器browser.get('https://www.taobao.com') # 进入网页input1 = browser.find_element_by_id('q') # 查找id为'p'input2 = browser.find_element_by_css_selector('#q') # 通过css选择查找id为'p'input3 = browser.find_element_by_xpath('//*[@id="q"]') # 通过 xpath选择器查找id为'p'print(input1, input2, input3) # 打印出来的内容是一样的<selenium.webdriver.remote.webelement.WebElement (session="3e230964450caa8b450fc5bfaf00bcaa", element="0.40898670165609774-1")> <selenium.webdriver.remote.webelement.WebElement (session="3e230964450caa8b450fc5bfaf00bcaa", element="0.40898670165609774-1")> <selenium.webdriver.remote.webelement.WebElement (session="3e230964450caa8b450fc5bfaf00bcaa", element="0.40898670165609774-1")>browser.close()
其他获取单个节点的方法:
find_element_by_idfind_element_by_namefind_element_by_xpathfind_element_by_link_textfind_element_by_partial_link_textfind_element_by_tag_namefind_element_by_class_namefind_element_by_css_selector
其他用法
# 相当于 find_element_by_id(id)input1 = browser.find_element(By.ID, 'q')
多个元素 .find_elements_*_*( )
和查找单个元素类似,只是在element后面加个了s
返回结果都是列表形式
元素交互操作
对获取的元素调用交互方法
from selenium import webdriverimport timebrowser = webdriver.Chrome()browser.get('https://www.taobao.com')input1 = browser.find_element_by_id('q') # 查找id为p的元素,这个元素是搜索输入框input1.send_keys('iPhone') # 发送内容 iPhonetime.sleep(1)input1.clear()input1.send_keys('iPad') # 再次输入内容 iPadbutton = browser.find_element_by_class_name('btn-search') # 查找class为btn-search元素,为搜索按钮button.click() # 完成搜索动作
http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement
交互动作
将动作附加到动作链中串行执行
在网页代码中找到frame的位置
from selenium import webdriverfrom selenium.webdriver import ActionChains # 导入动作链对象browser = webdriver.Chrome()url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'browser.get(url)# 模拟拖拽browser.switch_to.frame('iframeResult') # 切换到 frame,传入ifrome的idsource = browser.find_element_by_css_selector('#draggable') # 找到frame中被推拽对象target = browser.find_element_by_css_selector('#droppable') # 找到推拽目标# 声明一个ActionChains的动作链传入actions = ActionChains(browser)actions.drag_and_drop(source, target) # 传入动作开始和目标actions.perform() # 执行
执行JavaScript
使用execute_script()实现进度条下拉
from selenium import webdriverbrowser = webdriver.Chrome()browser.get('https://www.zhihu.com/explore')# 用execute_script执行script语句把滑动条拉到最下面browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')browser.execute_script('alert("TO Bottom")') # 执行JS提示
获取元素信息,文本值
from selenium import webdriverbrowser = webdriver.Chrome()url = 'https://www.zhihu.com/explore'browser.get(url)input = browser.find_element_by_id('zh-top-link-logo')print(input.get_attribute('class')) # 传入想要获取的属性名,可以它的值zu-top-link-logoprint(input.text) # 将文本值打印出来知乎
获取ID、位置、标签名、大小
print(input.id) # 获取ID0.04737602037454258-1print(input.location) # 获取位置{'x': 28, 'y': 0}print(input.tag_name) # 获取名字aprint(input.size) # 获取大小{'height': 45, 'width': 61}
Frame
之前例子操作的节点是iframe是子Frame,相当于子页面,在子节点frame里面不能操作外面的frame,所以需要使用switch_to.parent_frame()
from selenium import webdriverfrom selenium.common.exceptions import NoSuchElementExceptionbrowser = webdriver.Chrome()url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'browser.get(url)browser.switch_to.frame('iframeResult') # 选择子frametry: logo = browser.find_element_by_class_name('logo') # 查找在父类位置的内容except NoSuchElementException: # 找不到时 提示的错误,打印NO LOGO print('NO LOGO')browser.switch_to.parent_frame() # 切换到父级framelogo = browser.find_element_by_class_name('logo') # 重新查找元素print(logo) # 成功输出内容print(logo.text)# 结果:NO LOGO<selenium.webdriver.remote.webelement.WebElement (session="1c1f828d79bea6676e5521e248e42449", element="0.7249380096596258-2")>RUNOOB.COM
等待
Selenium中,get()方法在网页框架加载结束之后就结束执行。此时如果获取page_source可能并不是浏览器完全加载完成的页面,如果某些页面有额外的Ajax请求,我们在网页代码中也不一定能成功获取到。因此我们需要延时等待一定时间区别节点加载出来。
隐式等待
当查找节点而节点并没有立即出现的时候,隐式等待将等待一段时间再查找 ,默认的时间是 0。
from selenium import webdriverbrowser = webdriver.Chrome()# implicitly_wait() 方法实现了隐式等待browser.implicitly_wait(10) # 等待时间10秒browser.get('https://www.zhihu.com/explore')# 查找内容,如果找不到等待10秒input = browser.find_element_by_class_name('zu-top-add-question')print(input)
显式等待
它指定好要查找的节点,然后指定一个最长等待时间。如果在规定时间内加载出来这个节点,那么就返回查找的节点,如果没有则抛出超时异常
from selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import WebDriverWait# as 别名,把EC当做expected_conditions使用from selenium.webdriver.support import expected_conditions as ECbrowser = webdriver.Chrome()browser.get('https://www.taobao.com/')wait = WebDriverWait(browser, 10) # 传入浏览器对象,等待时间最长时间# wait.until(),传入等待条件expected_conditions。# EC.presence_of_element_located((By.ID, 'q')) 传入内容是元组# presence_of_element_located 这个条件,就代表节点出现的意思,其参数是节点的定位元组# 获取到元素就赋值,获取不到就抛出异常input = wait.until(EC.presence_of_element_located((By.ID, 'q')))# element_to_be_clickable 可点击button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search')))print(input, button)
http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions
前进后退
import timefrom selenium import webdriverbrowser = webdriver.Chrome()browser.get('https://www.baidu.com/')browser.get('https://www.taobao.com/')browser.get('https://www.python.org/')browser.back() # 后退一页time.sleep(1) # 睡眠1秒browser.forward() # 前进一页 browser.close()
Cookies
from selenium import webdriverbrowser = webdriver.Chrome()browser.get('https://www.zhihu.com/explore')print(browser.get_cookies()) # 得到cookies# 添加内容到 cookies中browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'}) print(browser.get_cookies()) # 重新得到cookiesbrowser.delete_all_cookies() # 删除cookiesprint(browser.get_cookies()) # 再得到cookies,此时cookies为空
选项卡操作
import timefrom selenium import webdriverbrowser = webdriver.Chrome()browser.get('https://www.baidu.com')browser.execute_script('window.open()') # 打开新的选项卡print(browser.window_handles) # 得到所有选项卡的引用browser.switch_to_window(browser.window_handles[1]) # 切换到第二个选项卡browser.get('https://www.taobao.com') # 在第二个选项卡中打开网页time.sleep(1) browser.switch_to_window(browser.window_handles[0]) # 切换到第一个选项卡browser.get('https://python.org') # 在第一个选项卡中打开网页# 控制台:['CDwindow-4efe7c9f-d21d-42c9-964b-1f7743b4fc58', 'CDwindow-d2940963-7686-4325-a5ca-f944eeb6a0b7']# 打印的选项卡信息
- Python爬虫Selenium使用
- python爬虫----初次使用selenium
- python写爬虫6-selenium的使用
- Python selenium爬虫
- python+scrapy+selenium爬虫
- Python + Selenium 爬虫小记
- phantomjs+selenium+python爬虫
- python爬虫step1:selenium
- Python爬虫Selenium安装
- Python爬虫之selenium
- Python selenium 拉钩爬虫
- 爬虫之自动保存文档-使用python/selenium
- python爬虫由浅入深11---selenium的基础与使用
- Python爬虫工具之Selenium
- Python爬虫小结之Selenium
- 【python 爬虫】selenium+phontomjs 用法
- PYthon Selenium 爬虫 操作浏览器
- Selenium+Chrome(PhantomJs) Python爬虫
- HDOJ2068 RPG的错排
- 归并排序(内部)总结
- Qt5.4.1 在Win7+MinGW-w64 v6.4.0环境下源码编译64位库文件
- 桶排序
- 排序 0
- Python爬虫Selenium使用
- C++递归求解N个元素的所有子集
- 15算法课程 53. Maximum Subarray
- position跟display、margin collapse、overflow、float这些特性相互叠加后会怎么样?
- JS的Dom和事件处理机制(三)
- 试题18:树的子结构
- 粒子滤波
- JZOJ5393【NOIP2017提高A组模拟10.5】Snake vs Block DP
- <C++>15.this指针