修改spark源码并编译部署
来源:互联网 发布:安吉汽车物流知乎 编辑:程序博客网 时间:2024/05/18 15:27
下载spark源码
从spark官网下载spark源码的选择如下图:
重点就是第二个选择source code然后点击第四个下载tgz包。
下载之后解压到你想要的目录下,这样你就获得了spark的源码。
安装maven
这里是使用maven对spark进行编译,当然要下载maven:点这里下载maven。
老规矩下载只有解压到你需要的目录。
然后配置maven的环境变量如下:
export MAVEN_HOME=/home/ubuntu/mavenexport MAVEN=$MAVEN_HOME/binexport MAVEN_OPTS="Xms256m -Xmx512m"export PATH=$MAVEN:$PATH
之后可以通过mvn –version来查看maven版本,如果出现版本信息说明安装成功。
编译spark源码
这里我们使用源码包中自带的make-distribution.sh文件进行编译。当然在编译之前你可以试着修改一些源代码。
在spark源码目录下运行
./make-distribution.sh --tgz -Phadoop-2.6 -Pyarn -DskipTests -Dhadoop.version=2.6.0 -Phive -Phive-thriftserver
参数解释:
-DskipTests,不执行测试用例,但编译测试用例类生成相应的class文件至target/test-classes下。
-Dhadoop.version 和-Phadoop: Hadoop 版本号,不加此参数时hadoop 版本为1.0.4 。
-Pyarn :是否支持Hadoop YARN ,不加参数时为不支持yarn 。
-Phive和-Phive-thriftserver:是否在Spark SQL 中支持hive ,不加此参数时为不支持hive 。
–with-tachyon :是否支持内存文件系统Tachyon ,不加此参数时不支持tachyon 。
–tgz :在根目录下生成 spark-$VERSION-bin.tgz ,不加此参数时不生成tgz 文件,只生成/dist 目录。
ps:以前的–with-hive –with-yarn都不再支持了
这样大概要等二十分钟到一个多小时不等,主要取决于网络环境,因为要下载一些依赖包之类的。之后你就可以获得一个spark编译好的包了,解压之后就可以部署到机器上了。
相关内容:
如何安装spark:
http://blog.csdn.net/fishseeker/article/details/61918138
如何在IDEA中调试spark程序:
http://blog.csdn.net/fishseeker/article/details/63741265
- 修改spark源码并编译部署
- eclipse spark源码编译部署
- Spark 1.3.0源码编译及部署
- 1 如何源码编译并部署red5
- 编译能支持Hive的Spark,并部署测试。
- 部署、编译、运行spark
- Spark编译与部署
- 修改hadoop源码后,hadoop和spark的编译过程
- 修改hadoop源码后,hadoop和spark的编译过程
- spark源码编译
- Spark源码编译
- 编译Spark源码
- spark安装、源码编译
- maven编译Spark源码
- spark源码编译
- sbt编译spark源码
- spark源码编译后记
- 编译spark源码
- Shell传入参数的处理
- ofbiz 高性能最佳实践
- 树莓派Python直接操控摄像头
- CLR via C#笔记
- C++中类的组合和继承关系
- 修改spark源码并编译部署
- SpringMVC之文件上传/下载
- Android问题—读取其他应用的SharedPreferences
- 手把手教你搭建FastDFS集群(上)
- 一个带下拉列表的EditText--SpinnerEditText
- A : easy dfs
- 最短树的Prim算法
- FFmpeg中函数avformat_open_input()(含URL解析文件格式)
- 膜结构设计软件Easy 8.2\