scrapy爬虫的暂停与重启

来源:互联网 发布:淘宝自然流量没有了 编辑:程序博客网 时间:2024/05/16 10:07

首先要有一个scrapy项目


这里用我的爬取知乎用户信息的项目来做例子:https://github.com/oldbig-carry/zhihu_user


在cmd上cd 进入项目


然后在项目目录下创建 记录文件:remain/001


然后输入:scrapy crawl  zhihu  -s JOBDIR=remain/001


回车运行就行了


按ctrl+c 暂停


继续运行只要再次输入:scrapy crawl  zhihu  -s JOBDIR=remain/001就行了


需要重新爬取就换个文件 002就行了


原创粉丝点击