验证过的模拟登录的方式,结合scrapy和selenium(phantom)
来源:互联网 发布:全球地表覆盖数据下载 编辑:程序博客网 时间:2024/05/01 01:05
rom scrapy.spider import BaseSpiderfrom scrapy.http import Response,FormRequest,Requestfrom scrapy.selector import HtmlXPathSelectorfrom selenium import webdriverclass MySpider(BaseSpider): name = 'MySpider' start_urls = ['http://my_domain.com/'] def get_cookies(self): driver = webdriver.Firefox() driver.implicitly_wait(30) base_url = "http://www.my_domain.com/" driver.get(base_url) driver.find_element_by_name("USER").clear() driver.find_element_by_name("USER").send_keys("my_username") driver.find_element_by_name("PASSWORD").clear() driver.find_element_by_name("PASSWORD").send_keys("my_password") driver.find_element_by_name("submit").click() cookies = driver.get_cookies() driver.close() return cookies def parse(self, response,my_cookies=get_cookies): return Request(url="http://my_domain.com/", cookies=my_cookies, callback=self.login) def login(self,response): return [FormRequest.from_response(response, formname='login_form', formdata={'USER': 'my_username', 'PASSWORD': 'my_password'}, callback=self.after_login)] def after_login(self, response): hxs = HtmlXPathSelector(response) print hxs.select('/html/head/title').extract()
0 0
- 验证过的模拟登录的方式,结合scrapy和selenium(phantom)
- Scrapy中使用cookie免于验证登录和模拟登录
- scrapy的basic模板模拟登录、requests模拟登录
- 使用Scrapy实现模拟登录的方法
- python+scrapy+selenium结合
- 未经过验证的在scrapy中获取cookies
- 通过selenium来模拟登录,获取登录后的cookies
- selenium Python自动化测试(基本的验证方式)
- 用scrapy 模拟知乎的登录过程
- 通过scrapy,从模拟登录开始爬取知乎的问答数据
- Scrapy+Selenium+Phantomjs的Demo
- selenium的使用和scrapy的简单使用
- Scrapy框架爬取有验证码的登录网站
- Linux 免密登录的实现原理和验证方式
- 基于验证码模拟登录的爬虫
- 模拟登录时的验证码功能
- (本学期软件工程项目开发经验)eclipse环境下struts2和mysql结合的登录验证
- Selenium的模拟鼠标和键盘演示
- hdu2201 熊猫阿波的故事
- 100AC
- 黑马程序员-----初识OC(三)
- C#中get和set不带参数
- JTAG各类接口针脚定义及含义
- 验证过的模拟登录的方式,结合scrapy和selenium(phantom)
- Java语言的环境搭建
- "import static net.mindview.util.Print.*"错误怎么办
- JSF导航规则(Navigation)
- js刷新父窗口的几种方式
- 大数相乘,大数相加
- TCP/IP -2 链路层
- 数据结构之shell排序
- URAL 1002. Phone Numbers