CaffeOnSpark 安装笔记 可以正常运行
来源:互联网 发布:看图软件apk 编辑:程序博客网 时间:2024/06/07 02:10
CaffeOnSpark 安装环境
平台:Ubuntu 16.04
对于CaffeOnSpark的安装,默认的前提是已经在机器上安装CUDA, Hadoop 和 Spark 集群,并且它们可用的。关于Hadoop和Spark的版本,官方文档有严格定义:
Hadoop 2.6 Spark 1.6 或者是: Hadoop 2.7 Spark 2.0
另外环境需要 Java8. Scala 2.11.7
注:安装CaffeOnSpark时,对各个插件的版本有严格要求。
安装Apache Maven
在编译CaffeOnSpark中的MakeFile.config文件中用到了mvn命令。
a. 确保已经安装好 jdk.
b. 到maven官网下载 apache-maven-3.2.5-bin.tar.gz (最新的版本可能发生maven插件冲突,3.2.5是检测可行的版本)。
c. 解压到工作区:
$ tar –zxvf apache-maven-3.2.5-bin.tar.gz
d. 添加环境变量:
$ sudo vi /etc/profile$ export M2_HOME=/[maven安装目录]/apache-maven-3.2.5$ export PATH=$M2_HOME/bin:$PATH$ . /etc/profile
e. 检测是否安装成功:
$ mvn –v
安装Cmake
到官网下载最新的Cmake : https://cmake.org/download/ 版本无要求
下载后解压,进入目录执行:
$ ./bootstrap$ make –j8$ sudo make install
验证版本:
$ cmake –version
安装Google Protobuf 2.5.0
Protobuf 目前已经全面一直到Github https://github.com/google/protobuf 版本必须是 2.5.0 最新版会出现无法解析类名冲突
下载安装包后解压到目录,进入目录下:
$ ./configure$ make$ make check$ sudo make install
验证版本:
$ protoc –version
注意:由于版本库的问题,你的OpenCV可能找不到对应库:
$ sudo vi /etc/ld.so.conf.d
在里面添加:
/usr/local/lib$ sudo ldconfig #使配置生效
安装OpenCV
首先安装依赖库:
$ sudo apt-get install build-essential libgtk2.0-dev libavcodec-dev \ libavformat-dev libjpeg.dev libtiff4.dev libswscale-dev libjasper-dev
从官网下载 OpenCV 注意:CUDA 8.0之后的版本会与OpenCV冲突,所以只能选择2.4 , 本文选择的是17.10推出的小版本2.4.13。
解压OpenCV并进入目录:
$ cmake . (注意空格和点)$ sudo make $ sudo make install
注意:由于版本库的问题,你的OpenCV可能找不到对应库:
$ sudo vi /etc/ld.so.conf.d
在里面添加:
/usr/local/lib$ sudo ldconfig #使配置生效(参考:http://www.mobibrw.com/2017/7393 http://m.blog.csdn.net/supe_king/article/details/73882528 )
验证版本:
pkg-config --modversion opencv
安装Caffe
更新源:
$ sudo apt-get update
下载Caffe:
$ git clone https://github.com/bvlc/caffe.git
依赖包:
$ sudo apt-get install libprotobuf-dev protobuf-compiler $ sudo apt-get install libleveldb-dev $ sudo apt-get install libsnappy-dev$ sudo apt-get install libopencv-dev$ sudo apt-get install libhdf5-serial-dev$ sudo apt-get install --no-install-recommends libboost-all-dev $ sudo apt-get install libatlas-base-dev $ sudo apt-get install python-dev $ sudo apt-get install libgflags-dev $ sudo apt-get install libgoogle-glog-dev $ sudo apt-get install liblmdb-dev$ sudo apt-get install libatlas-base-dev$ sudo apt-get install --no-install-recommends libboost-all-dev$ sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
修改 Makefile 和 Makefile.config,同时选择cpu 或者是 gpu
编译 Caffe :
$ make all$ make test$ make runtest
安装CaffeOnSpark
下载CaffeOnSpark:
$ sudo git clone https://github.com/yahoo/CaffeOnSpark.git --recursive
把Caffe当中的Makefile和Makefile.config拷贝到Caffe-public中替换原来的。
修在在caffe-public文件夹下的Makefile.config文件:
添加:INCLUDE_DIRS +=${JAVA_HOME}/include
编译CaffeOnSpark:
$ make build
这个过程会下载许多的内容,所以会持续很长时间。
在安装完成之后会明显出现Build Success,然后就可以根据官方GIT上的操作来跑数据集进行测试。
- CaffeOnSpark 安装笔记 可以正常运行
- caffeonspark
- CaffeOnSpark安装和使用教程系列一:CaffeOnSpark的安装
- CaffeOnSpark 安装遇到的一系列问题
- 本地代码可以正常运行,其他人的不能正常运行???
- 怎样让WEBPARTS可以正常运行,可以调试
- eclipse运行项目可以正常运行,但是localhost:8080打不开
- Mule ESB 学习笔记(11)Web Service Proxy(这里是一个可以正常运行的例子)
- Xcode真机可以运行,但是打包之后安装到真机上就闪崩,把程序拷到别的电脑上正常
- DEBUG后可以正常运行,RELEASE后出现异常错误
- 急救,登录时就报错,但系统可以正常运行
- Android SystemUI (导入到Eclipse,可以正常运行)
- 谈debug版本可以正常运行,而在rel…
- IDEA可以正常运行,但是spark-shell不行
- ORACLE没有listener.ora监听程序仍然可以正常运行
- CaffeOnSpark安装和使用教程系列二:单节点使用CaffeOnSpark进行MNIST数据集的测试
- CaffeOnSpark安装和使用教程系列三:集群环境下使用CaffeOnSpark进行MNIST数据集的测试
- 为什么VC中DEBUG版本可以正常运行的程序有时无法在RELEASE版本下正常运行(转)
- MXNet 多rec参与训练
- MongoDb 将 BsonDocument 集合 转换为强类型 List
- groovy之list和map方法
- 小程序点击获取循环列表中的内容
- 餐馆与UX中的用户引导
- CaffeOnSpark 安装笔记 可以正常运行
- the solve of volume problem
- 保留小数点后两位(必须是数字)
- sublime text3快捷键设置为eclipse差不多
- merge and rebase
- Java Map释放内存置null以及调用clear()的区别
- cypher实践之获取路径中name属性最短的那个节点
- chrome开发者工具使用技巧(看了定不让你失望)
- jhat:虚拟机堆转储快照分析工具