Spark的安装
来源:互联网 发布:图片识别字体软件 编辑:程序博客网 时间:2024/06/05 20:52
1.安装JDK与Scala
1.下载JDK:sudo apt-get install openjdk-7-jre-headless。
2.下载Scala: http://www.scala-lang.org/。
3.解压缩:tar –zxvf scala-2.10.6.tgz,进入sudo vim /etc/profile在下面添加路径:
PATH=$PATH:${SCALA_HOME}/bin使修改生效source /etc/profile。在命令行输入scala测试。
2.安装Spark
1.下载Spark: http://spark.apache.org/downloads.html
2.解压缩: tar –zxvf spark-2.1.0-bin-hadoop2.7.tgz进入conf文件夹,copy spark-env.sh.template并重新命名为spark-env.sh,如下图:
3.在文件添加配置如下:
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Homeexport SCALA_HOME=/Users/eleme/Documents/ProgramFiles/scala-2.11.8export SPARK_MASTER_IP=localhostexport SPARK_WORKER_MEMORY=4G
SPARK_HOME=/home/spark/spark-lectures/spark-1.5.1-bin-hadoop2.6 (解压后的包所在的路径)PATH=$PATH:${SPARK_HOME}/bin
3.启动
1.进入目录,在命令行输入:sbin/start-all.sh
2.在命令行输入:spark-shell(可在安装目录中bin里面找到)
4.测试
4.1浏览器测试
在浏览器输入http://localhost:4040/jobs/
4.2样例测试
进入bin目录,输入./run-example SparkPi 10(迭代次数) 计算π的值
bin目录:5.Wordcount示例
1.在命令行输入:spark-shell开启spark(Scala)
2.在examples文件夹下新建文件spark-demo.txt
3.把输入文件加载进RDD:
//val textFile = sc.textFile("YOUR_INPUT_FILE")val textFile = sc.textFile("examples/spark-demo.txt")
4.MapReduce操作,以work为key,1为value:
val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b)
5.查看每个单词出现的次数
wordCounts.collect()
6.结果如下:
0 0
- Spark的安装
- Spark的安装,编译
- spark的安装方法
- spark的安装配置
- Spark的安装
- Spark的安装方法
- spark的集群安装
- Spark集群的安装
- Apache Spark 的安装
- 【Spark】Spark的Standalone模式安装部署
- spark的RDD 安装spark如下
- Spark(1)——Spark的安装
- 【Spark】Spark的Standalone模式安装部署
- Spark 0.9的安装配置
- spark与shark的安装
- spark的配置与安装
- spark的安装过程记录
- Spark的安装和配置
- burnside引理+polya计数法小结
- 毕业感悟及学习反思
- pandas 的 pd.caoncat()
- jQuery学习笔记
- Angular企业级开发(6)-使用Gulp构建和打包前端项目
- Spark的安装
- mongo-aggregate
- Hdu 3631 Shortest Path(Floyd插点)
- pms包管理服务分析-apk卸载流程
- linux学习记录
- Platform Architecture
- VC6.0實踐——sketchpad
- 搭建ss
- jQuery链式调用理解