spark编译打包
来源:互联网 发布:淘宝p图一般多少钱啊 编辑:程序博客网 时间:2024/06/01 17:52
用maven编译打包spark2.1.1
以下编译都是在root用户下执行的命令
建议虚拟机内存4g以上
编译前安装一些压缩解压缩工具
yum install -y snappy snappy-devel bzip2 bzip2-devel lzo lzo-devel lzop openssl openssl-devel
1.安装Maven 3.3.9和Java 8,并且配置环境变量;
2.安装R包
先安装epel
yum list epel*
yum install epel-release
再安装R
yum list R
yum -y install R
如果没安装R包 ./dev/make-distribution.sh …会报错:
Failed to execute goal org.codehaus.mojo:exec-maven-plugin:1.4.0:exec (sparkr-pkg) on project spark-core_2.10: Command execution failed. Process exited with an error: 127 (Exit value: 127) -> [Help 1]
3.设置maven选项
jdk1.7:
export MAVEN_OPTS=”-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m”
jdk1.8:
export MAVEN_OPTS=”-Xmx2g -XX:ReservedCodeCacheSize=512m”
4.切换到spark解压后的源码根目录下
cd /root/spark-2.1.1
5.这里的选择scala-2.11,用2.10编译报错,在build前切换scala版本
./dev/change-scala-version.sh 2.11
6.切换到spark2.1.0解压后的源码根目录下
./build/mvn -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.3 -Dscala-2.11 -Phive -Phive -thriftserver -DskipTests clean package
7.打包
./dev/make-distribution.sh –name custom-spark –tgz -Psparkr -Phadoop-2.7 -Phive -Phive-thriftserver -Pmesos -Pyarn
- spark编译打包
- spark源码打包编译步骤
- Spark SQL程序SBT编译打包优秀博文总结
- 编译spark
- Spark编译
- Spark编译
- 编译、打包
- install4j打包Spark详解
- install4j打包spark客户端
- Spark sbt-assembly 打包
- Spark-1.5.2之修改源码后的自定义打包编译
- spark streaming---使用gradle混合编译Scala和Java项目并打包
- spark学习9之在window下进行源码编译打包
- sbt的安装以及用sbt编译打包scala编写的spark程序
- 编译打包spark-1.6.0-cdh5.11.0-src详细过程及问题记录
- spark研究之install4j打包spark
- spark-streaming程序打包配置文件
- 使用gradle打包spark应用
- 031-Java-022
- mfc窗口跳转的两种方法的区别
- web-servlet servlet源码解析
- gulp入门教程
- UE4异步加载资源
- spark编译打包
- mybatis trim标签
- 用74HC165读8个按键状态
- 遍历map
- 线性代数(蜜汁数学)
- 《从零开始搭建游戏服务器》 网络数据压缩——Zlib算法
- Python安装lxml找不到etree
- java+express+multiparty上传文件到服务器测试
- 简单并查集Wireless Network POJ