python爬虫框架scrapy一次执行多个爬虫文件

来源:互联网 发布:淘宝店卖家版官方下载 编辑:程序博客网 时间:2024/05/21 09:12

在scrapy工程,和spider文件夹同一目录下,创建一个.py文件

import os
os.system("scrapy crawl 爬虫1")os.system("scrapy crawl 爬虫2")
可以写多个。这样就能按顺序执行。

原创粉丝点击