第一章 创建爬虫常用命令
来源:互联网 发布:股票统计软件手机 编辑:程序博客网 时间:2024/06/06 15:40
1.linux下安装virtualenv sudo apt-get install python-virtualenv pip install virtualenvwrapper
2.创建 py2和py3虚拟环境 virtualenv -p /user/bin/python3 py3
3.windows pip install virtualenv
4.virtualenv scrapytest 在当前创建虚拟环境 进入虚拟环境 cd Scripts 运行active.bat 推出deactive.bat
5.新建py3虚拟环境 virtualenv -p py3路径/python.exe py3
1.虚拟环境的安装。
1.安装 pip install virtualenv
1.他的命令 virtualenv py2 ->在当前目录下创建一个虚拟环境
2.virtualenv -p py2-路径/python.exe py2 创建一个py2的虚拟环境
2.pip intall virtualenvwrapper
1.workon 列出所有虚拟环境 workon name 执行虚拟环境
2.mkvirtualenv name 默认路径:C:Users/Administrator/Envs 自己设置 PATH-> WORKON_HOME == e:/
3.workon 不起作用时可以将py27下的Scrapys下的 workon.bat mkvirtual.bat 导入
4.mkvirtualenv --python=C:\Users\liuyc\AppData\Local\Programs\Python\Python35-32\python.exe mysearch
mkvirtualenv --python=C:\Python27\python.exe flask_test
2.安装 scrapy
1.pip install -i https://pypi.douban.com/simple scrapy
2.www.lfd.uci.edu/~gohlke/pythonlibs/ 在这个网址下载Twisted 35-32版本 pip install ..安装
3.创建一个scrapy scrapy startproject ArticleSpider
4.模板创建 scrapy genspider jobbole blog.jobbole.com
5.pip install -i https://pypi.douban.com/simple/ pypiwin32
3.调试命令
1.scrapy shell http://python.jobbole.com/87566/
4.爬取拉钩网
1.scrapy genspider --list
2.scrapy genspider -t crawl lagou www.lagou.com
5.安装django
pip install -i https://pypi.douban.com/simple/ django
2.创建 py2和py3虚拟环境 virtualenv -p /user/bin/python3 py3
3.windows pip install virtualenv
4.virtualenv scrapytest 在当前创建虚拟环境 进入虚拟环境 cd Scripts 运行active.bat 推出deactive.bat
5.新建py3虚拟环境 virtualenv -p py3路径/python.exe py3
1.虚拟环境的安装。
1.安装 pip install virtualenv
1.他的命令 virtualenv py2 ->在当前目录下创建一个虚拟环境
2.virtualenv -p py2-路径/python.exe py2 创建一个py2的虚拟环境
2.pip intall virtualenvwrapper
1.workon 列出所有虚拟环境 workon name 执行虚拟环境
2.mkvirtualenv name 默认路径:C:Users/Administrator/Envs 自己设置 PATH-> WORKON_HOME == e:/
3.workon 不起作用时可以将py27下的Scrapys下的 workon.bat mkvirtual.bat 导入
4.mkvirtualenv --python=C:\Users\liuyc\AppData\Local\Programs\Python\Python35-32\python.exe mysearch
mkvirtualenv --python=C:\Python27\python.exe flask_test
2.安装 scrapy
1.pip install -i https://pypi.douban.com/simple scrapy
2.www.lfd.uci.edu/~gohlke/pythonlibs/ 在这个网址下载Twisted 35-32版本 pip install ..安装
3.创建一个scrapy scrapy startproject ArticleSpider
4.模板创建 scrapy genspider jobbole blog.jobbole.com
5.pip install -i https://pypi.douban.com/simple/ pypiwin32
3.调试命令
1.scrapy shell http://python.jobbole.com/87566/
4.爬取拉钩网
1.scrapy genspider --list
2.scrapy genspider -t crawl lagou www.lagou.com
5.安装django
pip install -i https://pypi.douban.com/simple/ django
阅读全文
0 0
- 第一章 创建爬虫常用命令
- 爬虫第一章笔记
- 第一章 初见网络爬虫
- 第一章 LINUX 常用命令
- 创建爬虫-----爬虫异常处理:
- 【Oracle】第一章创建授权
- RxJava2-第一章 创建 使用
- 《用python写网络爬虫》第一章
- 用python写网络爬虫读书笔记 第一章网络爬虫简介
- 创建爬虫----导航树
- scrapy创建爬虫项目
- Scrapy创建爬虫项目
- 创建爬虫项目
- Mysql系列课程--第一章 Sql分类 常用命令
- 第一章 maven创建Android项目
- 第一章 创建一个博客应用
- 【常用命令】创建用户
- Scrapy 创建 常用命令
- Mysql数据库2003解决
- [C++标准模板库:自修教程与参考手册]关于vector
- Leetcode OJ 98 Validate Binary Search Tree [Medium]
- Linux搭建IPSec/IKEv2 VPN服务器及客户端连接教程
- Ubuntu中创建Intellij IDEA快捷方式
- 第一章 创建爬虫常用命令
- 周记--听平凡人说故事
- 栈(LIFO:后进先出)
- 【Linux】【Docker】Ubuntu14.04 安装 Docker CE
- 数据库的存储过程详解
- MySQL事务的回滚
- wireshark 学习更进一步 之网络性能分析
- HTML入门笔记10-em和strong标签
- 互联网协议入门(二)