Spark

来源:互联网 发布:ssl端口号 编辑:程序博客网 时间:2024/06/10 08:51

环境介绍

我使用的是基于Ambari 的 HDP-2.6.1.0-129的Hadoop环境
1.Spark 1.6.3
2.Scala 2.10.6(可以使用2.11以后的 版本)
开发环境是IDEA 2017.2版本,使用sbt进行编译。

新建工程

使用IDEA进行工程创建在此不赘述,需要注意的是如果在创建工程时没有选择正确的scala版本,可以在项目内的build.sbt文件中修改为正确的scala版本

依赖配置

sbt需要配置的依赖较为简单,我们这一次编写的demo是一个计算Pi的近似值的spark软件,所以只需要添加本地与Spark Yarn通信的依赖

name := "SparkDemo_2_10_6"version := "0.1"scalaVersion := "2.10.6"name := "SparkXScalaDemo"libraryDependencies ++= Seq(  "org.apache.spark" % "spark-yarn_2.10" % "1.6.3")

如上面所示,在libraryDependencies里添加spark-yarn_2.10依赖,如果你的scala版本是2.11则应该添加spark-yarn_2.11
注意spark-core依赖已经被集成进入yarn依赖中,无需再添加

代码设置

联系Yarn集群需要你提供你的HDP集群的配置,所以去Ambari下把服务器的配置文件下载下来
我把全部的HDP配置文件都下载进来了
然后需要将这些配置文件放进一个Source或者Res文件夹,注意要去Project Structure中进行设置

完成了这些就能保证IDEA能够正常与Spark集群通信

然后是代码编写,我们的示例代码如下

import org.apache.spark.{SparkConf, SparkContext}import scala.math.randomobject SparkPi{  def main(args:Array[String]){    val conf = new SparkConf().setAppName("Spark Pi")    System.setProperty("hadoop.home.dir","C:\\Users\\sha0w\\hadoop-bin")    System.setProperty("HADOOP_USER_NAME", "hdfs")    conf.setMaster("yarn-client").setAppName("SparkPi")    conf.setJars(List("C:\\Users\\sha0w\\IdeaProjects\\SparkDemo_2_10_6\\target\\scala-2.10\\sparkxscalademo_2.10-0.1.jar"))    conf.set("spark.yarn.preserve.staging.files","false")    conf.set("spark.yarn.jar", "hdfs://yourID:port/apps/spark/spark-assembly-1.6.3.2.6.1.0-129-hadoop2.7.3.2.6.1.0-129.jar") //这部分需要指定对应的assembly包在HDFS内的地址,类似于Kylin使用Spark引擎的设置,这个包可以在/usr/hdp/current/spark-client/lib中找到    conf.set("HDP_VERSION","2.6.1.0-129")    conf.set("spark.yarn.dist.files", "yarn-site.xml")    conf.set("yarn.resourcemanager.hostname", "packone168")    val spark =new SparkContext(conf)    val slices = if(args.length > 0) args(0).toInt else 2    val n = 100000 * slices    val count = spark.parallelize(1 to n, slices).map { i =>      val x = random * 2 - 1      val y = random * 2 - 1      if(x*x + y*y <1) 1 else 0    }.reduce(_ + _)    println("Pi is roughly "+ 4.0 * count / n)    spark.stop()  }}

这些配置我是尽可能详细地配置,有心人可以尝试减少一些看能不能使用,关键是conf.setMaster("yarn-client")设置为集群链接模式

小问题

17/08/26 11:42:49 INFO client.RMProxy: Connecting to ResourceManager at packone168/10.0.86.168:805017/08/26 11:43:09 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 0 time(s); maxRetries=4517/08/26 11:43:29 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 1 time(s); maxRetries=4517/08/26 11:43:49 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 2 time(s); maxRetries=4517/08/26 11:44:09 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 3 time(s); maxRetries=4517/08/26 11:44:29 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 4 time(s); maxRetries=45

可能是因为我是用手机热点测试的,等下周一上班拿内网测试一下链接。

结语

发现网上讲这个远程调试的都是stand alone模式,我又比较怕麻烦,所以这是我自己摸索出来的连接Client的设置方法,希望大家多多指教。