Spark2.1.0在windows下的单机环境搭建

来源:互联网 发布:js判断网址是否存在 编辑:程序博客网 时间:2024/06/14 11:15

该文用于讲解在windows下spark开发环境的搭建
因为现在网上的搭建多在于旧版本中,且还原系数难度很大

材料准备


  • spark安装包
  • JDK 8
  • IDEA开发工具
  • scala 2.11.8

(注:spark2.1.0环境于scala2.11环境开发,所以必须版本对应
scala不是必须安装的,如果你是打算使用scala进行spark开发,则需要安装

环境搭建步骤

将spark-2.1.0-bin-hadoop2.x版本至c盘下即可

解压

将spark中的jar包全部提取出来另外放到一地方用于进行开发

提取jar包

新建IDEA项目,将所有jar包导入到IDEA工程当中

IDEA

书写相应代码运行即可成功

以Scala书写的WordCount为例

package org.dataimport org.apache.spark._/**  * Created by Joe on 2017/1/16.*/object WordCount {    def main(args : Array[String]): Unit = {        val inputPath = "C:/spark-2.1.0-bin-hadoop2.6/README.md"        val conf = new SparkConf().setMaster("local").setAppName("WordCount")        val sc = new SparkContext(conf)        val rowRdd = sc.textFile(inputPath)        println(rowRdd.take(1).toString)        val resultRdd = rowRdd.flatMap(line => line.split("\\s+"))                            .map(word => (word, 1)).reduceByKey(_ + _)        println(resultRdd.take(2).toString)        for (data <- resultRdd) {           println(data)        }        sc.stop()    }}

之后用ctrl + shift + F10 运行,即可看到结果
这里写图片描述
这里可以看到spark已经正常启动了
这里写图片描述
后面可以看到wordCount的结果和spark结束的消息


注意事项

有很多人喜欢看spark-shell是否启动成功,但是spark-shell是否启动成功和能否在IDE中开发spark完全是两码事情。在本篇博文中的spark-shell也是会启动失败的,但是并不会影响spark在IDEA中的local启动

这里写图片描述
spark-shell的报错完全无须任何理睬

hadoop_home配置不配置良可,但是有些人看到报错还是会很难受,下面给大家提供winutils的下载路径,加载配置HADOOP_HOME路径即可

winutils下载链接

1 0
原创粉丝点击