Intellj 2016.3编写spark
来源:互联网 发布:数据中心和云计算 编辑:程序博客网 时间:2024/06/05 19:29
第一次编写spark代码遇到很多问题,记录下来
开发工具用最新的Intellj2016.3版本
新建项目网上有很多资料,在此不做描述
1.新建App.scala文件
2.修改pom.xml文件
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.0.2</version></dependency>
<properties> <scala.version>2.11.7</scala.version></properties>
scala版本要和spark版本对应上
3.点击Edit configurations,修改VM options值为-Dspark.master=local,否则报
A master URL must beset in your configuration
错误,参考:http://blog.csdn.net/shenlanzifa/article/details/42679577
4.def main(args: Array[String]): Unit = { val logFile = "file:///D:\\crawler-beans.cxml" System.setProperty("hadoop.home.dir", "E:\\software\\linux\\hadoop-2.7.2") val conf = new SparkConf().setAppName("Simple Application") val sc = new SparkContext(conf) val logData = sc.textFile(logFile, 2).cache() val numAs = logData.filter(line => line.contains("a")).count() val numBs = logData.filter(line => line.contains("b")).count() println("Lines with a: %s,Lines with b: %s".format(numAs, numBs)) }
添加红色部分内容,找到对应的本地hadoop文件夹
5.下载文件:winutils.exe方到hadoop对应的bin目录下
不下载到对应的目录,报Couldnot locate executable null\bin\winutils.exe in the Hadoop binaries错误
参考:
http://www.cnblogs.com/hyl8218/p/5492450.html
0 0
- Intellj 2016.3编写spark
- intellj配置spark源码 attach
- spark streaming实例编写
- java编写spark程序
- java编写spark程序
- Intellj tomcat
- intellj 使用
- IntellJ iDEA中使用Maven 编译直接本地跑spark ,如何给算法传参数(仅作备忘记录)
- IntelliJ IDEA 编写spark项目
- Spark编写UDAF自定义函数
- 使用IDEA编写Spark应用程序
- 编写Spark测试用例
- Spark编写UDAF自定义函数
- 编写Spark SQL查询程序
- python编写spark的配置
- Intellj idea 上编写上传案例,上传文件时,出现文件名乱码问题描述及解决方式
- 编写Java程序访问Spark环境
- 使用Java编写并运行Spark应用程序
- Linux Socket编程
- 亲测:ubuntu下ssh免密匙登陆
- 配置eclipse.ini、jvm参数配置说明、解决eclipse卡死问题、eclipse内存配置
- 安卓api canvas.drawText()
- L版本GMS预置
- Intellj 2016.3编写spark
- windows学习历程-IPC之命名管道
- 学习python的第二十三天
- 视频压缩:I帧、P帧、B帧
- Android身份证拍照识别SDK
- java实现RSA加密和解密
- 51Nod 1268 和为K的组合
- 3个线程每个线程只能打印自己的名字,在屏幕上顺序打印 ABC,打印10次
- Laravel 使用 aliyun-oss