Scrapy-基本用法
来源:互联网 发布:mysql if函数用法 编辑:程序博客网 时间:2024/06/05 08:07
Xpath
<html><head> <title>标题</title></head><body> <h2>二级标题</h2> <p>爬虫1</p> <p>爬虫2</p></body></html>
在上述html代码中,我要获取h2的内容,我们可以使用以下代码进行获取:
info = response.xpath("/html/body/h2/text()")
可以看出/html/body/h2为内容的层次结构,text()则是获取h2标签的内容。//p获取所有p标签。获取带具体属性的标签://标签[@属性=”属性值”]
<div class="hide"></div>获取class为hide的div标签div[@class="hide"]
xmlfeed模板
- 创建一个xmlfeed模板的爬虫
scrapy genspider -t xmlfeed abc iqianyue.com
- 核心代码:
from scrapy.spiders import XMLFeedSpiderclass AbcSpider(XMLFeedSpider): name = 'abc' start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/test.xml'] iterator = 'iternodes' # 迭代器,默认为iternodes,是一个基于正则表达式的高性能迭代器。除了iternodes,还有“html”和“xml” itertag = 'person' # 设置从哪个节点(标签)开始迭代 # parse_node会在节点与提供的标签名相符时自动调用 def parse_node(self, response, selector): i = {} xpath = "/person/email/text()" info = selector.xpath(xpath).extract() print(info) return i
csvfeed模板
- 创建一个csvfeed模板的爬虫
scrapy genspider -t csvfeed csvspider iqianyue.com
- 核心代码
from scrapy.spiders import CSVFeedSpiderclass CsvspiderSpider(CSVFeedSpider): name = 'csvspider' allowed_domains = ['iqianyue.com'] start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/mydata.csv'] # headers 主要存放csv文件中包含的用于提取字段的信息列表 headers = ['name', 'sex', 'addr', 'email'] # delimiter 字段之间的间隔 delimiter = ',' def parse_row(self, response, row): i = {} name = row["name"] sex = row["sex"] addr = row["addr"] email = row["email"] print(name,sex,addr,email) #i['url'] = row['url'] #i['name'] = row['name'] #i['description'] = row['description'] return i
crawlfeed模板
- 创建一个crawlfeed模板的爬虫
scrapy genspider -t crawlfeed crawlspider sohu.com
- 核心代码
class CrawlspiderSpider(CrawlSpider): name = 'crawlspider' allowed_domains = ['sohu.com'] start_urls = ['http://sohu.com/'] rules = ( Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True), ) def parse_item(self, response): i = {} #i['domain_id'] = response.xpath('//input[@id="sid"]/@value').extract() #i['name'] = response.xpath('//div[@id="name"]').extract() #i['description'] = response.xpath('//div[@id="description"]').extract() return i
上面代码rules部分中的LinkExtractor为连接提取器。
LinkExtractor中对应的参数及含义
阅读全文
0 0
- Scrapy-基本用法
- scrapy 基本用法
- scrapy框架基本使用
- scrapy爬虫基本应用
- scrapy&mongodb基本使用
- scrapy基本使用
- 四.scrapy XMLFeedSpider用法
- Scrapy学习一:Scrapy基本教程
- Scrapy框架的用法实例
- Scrapy-xpath用法以及实例
- 【Scrapy】学习记录1_一个基本的Scrapy项目
- Scrapy爬虫笔记【1-基本框架】
- Scrapy爬虫笔记【2-基本流程】
- Scrapy下xpath基本的使用方法
- Scrapy下xpath基本的使用方法
- Scrapy模拟登录抓数据基本应用
- Scrapy爬虫入门教程 安装和基本使用
- 基本用法
- C++并发编程框架Theron(4)——Hello world!
- 比较三个数大小
- Scrapy-常用命令
- apache AH01630: client denied by server configuration错误解决方法
- Python 多版本共存之 pyenv
- Scrapy-基本用法
- 8位有符号数的补码表示范围
- 十三天
- 《自控力》 【美】凯利·麦格尼格尔 第一章读书笔记
- oracle的性能报告获取
- java日志组件介绍(common-logging,log4j,slf4j,logback )
- 关于RAC中SCN原理和机制的探索
- 结构体的大小
- jsp登录(mysql数据库)