eclipse + maven + scala+spark环境搭建

来源:互联网 发布:php删除相同前缀文件 编辑:程序博客网 时间:2024/06/15 21:54

一、配置eclipse + maven + scala环境

1. Eclipse Market中安装Scala IDEMaven


 

 

2. 安装m2e-scala(图中的url是:http://alchim31.free.fr/m2e-scala/update-site/)

  

二、测试eclipse+maven+scala的运行环境

1. 先来简单测试一下eclipse+scala

1)新建一个名为Scala Project,右键工程添加一个名为testScala Object,代码如下:

 

2)最终如图示:

 

 

3)右键test.scalaRun as…-> Scala Application,在终端成功输出了hello world

2、再来测试一下ecliipse+scala+maven

1) 新建maven工程

 


如果没有scala这一项,手动添加Archetype.最后点击Finish.新建项目如下图:

 

此时创建的工程还不是scala的工程,在项目名称上点击右键

 

点击 Add Scala Nature后项目才转换为scala-maven项目

然后pom.xml报下图中的错误,解决办法:在 plugins 的外层加标签

 

 

这样maven+scala的项目就成功搭建了。

三、配置spark的本地运行

1. 配置所需依赖包

1)maven-sample工程的基础上配置spark。只需在poml.xml中添加spark-core
注意:此处2.11表示scala的版本,1.21表示spark的版本
  1. <dependency>  
  2.     <groupId>org.apache.spark</groupId>  
  3.     <artifactId>spark-core_2.11</artifactId>  
  4.     <version>1.2.1</version>  
  5. </dependency>  
2)default package中添加scala object – SimpleApp。代码如下
  1. /* SimpleApp.scala */  
  2. import org.apache.spark.SparkContext  
  3. import org.apache.spark.SparkContext._  
  4. import org.apache.spark.SparkConf  
  5.   
  6. object SimpleApp {  
  7.   def main(args: Array[String]) {  
  8.     val logFile = "test.txt" // Should be some file on your system  
  9.     val conf = new SparkConf().setAppName("Simple Application").setMaster("local[2]")  
  10.     val sc = new SparkContext(conf)  
  11.     val logData = sc.textFile(logFile, 2).cache()  
  12.     val numAs = logData.filter(line => line.contains("a")).count()  
  13.     val numBs = logData.filter(line => line.contains("b")).count()  
  14.     println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))  
  15.   }  
  16. }  
3)Test.txt文件需要在项目文件目录中创建。内容如下:
  1. a  
  2. b  
  3. c  
  4. ab  
  5. abab  
  6. d  
4)右键SimpleApp.scalaRun as -> Scala Application,运行程序,发现报异常。

 

该异常解决办法如下:

http://www.srccodes.com/p/article/39/error-util-shell-failed-locate-winutils-binary-hadoop-binary-path

网页中提供了“Build, Install, Configure and Run Apache Hadoop 2.2.0 in MicrosoftWindows OS”的链接,也提供了现成的编译好的包。直接将包下载下来,在工程目录下建立null/bin目录,并将下载包中的所有文件拷贝进了null/bin目录。

 

5)接下来,再运行SimpleApp程序,就没有异常了。运行结果:
Lines with a: 3, Lines with b: 3

以上就是eclipse + maven + scala+spark环境搭建的所有步骤。

阅读全文
0 0
原创粉丝点击