Spark的安装
来源:互联网 发布:win7系统盘清理软件 编辑:程序博客网 时间:2024/05/17 09:47
抽时间,说以下spark的安装吧,由于我编译的spark是基于scala-2.10.4的,所以为了统一,讲原来的scala-2.11改成scala-2.10.4
1.首先你要下载scala-2.10.4,然后在相应的位置解压安装,这里是解压在/usr/local/share/scala 文件夹中的,然后配置环境变量:
sudo vim ~/.bashrc
然后同时将之前我们编译的spark的路径也给配置进去
如图所示:
然后键入命令:
source ~/.bashrc
使其生效。
查看scala的版本
图片:
2.结束之后,我们就可以来运行单机下的例子程序了,我们来计算pi的值
cd到相应的spark的目录,然后键入命令:
./run-example org.apache.spark.examples.SparkPi
然后我们可以看到相应的结果:
能够正常运行则代表安装成功,下面将会具体介绍在hadoop环境下的安装,并利用HDFS以及YARN的过程。
0 0
- Spark的安装
- Spark的安装,编译
- spark的安装方法
- spark的安装配置
- Spark的安装
- Spark的安装方法
- spark的集群安装
- Spark集群的安装
- Apache Spark 的安装
- 【Spark】Spark的Standalone模式安装部署
- spark的RDD 安装spark如下
- Spark(1)——Spark的安装
- 【Spark】Spark的Standalone模式安装部署
- Spark 0.9的安装配置
- spark与shark的安装
- spark的配置与安装
- spark的安装过程记录
- Spark的安装和配置
- 《设计模式》第三章——Builder模式
- 将本地git仓库推送到github上
- 用Bash Script编写Hadoop MapReduce Streaming
- 浅析深究什么是SOA?
- 2015欧冠决赛--脑力劳动结硕果
- Spark的安装
- JDK自带工具jps,jstat,jmap,jconsole使用
- 全排列算法
- Java命令行
- LeetCode172:Factorial Trailing Zeroes
- 理解为什么要使用Ioc
- linux命令
- java编程——吸血鬼数字(四位)
- 黑马程序员_模版方法设计模式