scrapyd 环境搭建项目发布及运行
来源:互联网 发布:查淘宝宝贝隐形降权 编辑:程序博客网 时间:2024/05/18 16:19
scrapyd 环境搭建项目发布及运行
关于python相关的资料中文比较匮乏,记录一下自己搭建成功的例子:
环境搭建
下载安装scrapyd
- pip install scrapyd
- pip install scrapyd-client
启动scrapyd服务器
- 在命令行中输入 scrapyd 看到类似 running 字样
- 在浏览器中输入http://localhost:6800/ 进入scrapyd管理页面
- 服务器启动成功
发布项目
修改设置
- 打开爬虫项目scrapy.cfg
- 【deploy】去掉url注释(url前# 去掉)
- 【settings】将deploy的url复制一份到setting中
发布项目
- cd 到爬虫目录下
- 输入 python D:\anaconda_Python\Scripts\scrapyd-deploy(地址为爬虫下scrapyd-deploy的地址)会把当前目录下的爬虫项目发布出去
- 看到{“node_name”: “DESKTOP-H8R7UT4”, “status”: “ok”, “project”: “tiebaMovies”, “version”: “1494827157”, “spiders”: 1}字样表示发布成功
启动项目
- 仍然在爬虫目录
- 输入 curl http://localhost:6800/schedule.json -d project=爬虫项目名称 -d spider=具体爬虫name
- curl http://localhost:6800为项目地址,可在scrapy.cfgc处更改在此取默认
- 得到类似{“node_name”: “DESKTOP-H8R7UT4”, “status”: “ok”, “jobid”: “41e430f8393611e79217e4029b5ba1c0”}为启动成功 即可在http://localhost:6800/中观察爬虫情况
可能出现的问题
{“node_name”: “DESKTOP-H8R7UT4”, “status”: “error”, “message”: “Scrapy 1.3.3 - no active project\r\n\r\nUnknown command: list\r\n\r\nUse \”scrapy\” to see avai
lable commands\r\n”}
检查爬虫项目名 爬虫命是否正确
项目启动成功但log报错
init() got an unexpected keyword argument ‘_job’
在爬虫中加入以下代码
def __init__(self, **kwargs): super(该类类名, self).__init__(self, **kwargs)
每次纠错以后必须重新发布再启动
0 0
- scrapyd 环境搭建项目发布及运行
- openGL搭建环境及运行第一个项目
- JAVA环境搭建及运行
- Python 环境搭建及运行
- sakai开发环境及运行环境搭建
- CRM项目WAS发布环境搭建
- vue.js 项目 环境搭建、打包发布
- 【scrapyd】windows下安装运行scrapyd
- 关于搭建Linux项目运行环境
- maven环境搭建并运行springboot项目
- scrapyd项目部署
- Scrapyd部署爬虫项目
- JAVA运行环境搭建及注意事项
- android单元测试环境搭建及运行
- Hibernate学习笔记--环境搭建及运行
- Android -- 环境搭建及程序运行
- 基于scrapyd爬虫发布总结
- vs发布时所需库运行环境搭建
- html5-"head" 标签里面应该放什么
- CSS定位
- 柏林纪行(下):JSConf_EU
- HDU 2196 Computer(树状DP)
- js获取url
- scrapyd 环境搭建项目发布及运行
- css文字描边效果
- struts上传多文件,限制单个文件大小及总大小
- 下拉菜单和文本框结合
- 信息安全工程师 学习笔记(二十四)
- LoadRunner windows64位安装教程
- 一款应用ANR的分析思路总结
- python:_csv.Error: line contains NULL byte错误
- springmvc中直接在Resposboday中处理数据的异常解决方法