Interlij 13编译Spark程序生成jar包
来源:互联网 发布:新概念英语官方软件 编辑:程序博客网 时间:2024/05/05 23:19
1、创建项目sp
create new project->scala->NOT SBT->next->设置项目名称'sp'
2、导入相关jar包
File->Project Structure->Libraries->点绿色'+'->java->找到spark-assembly-1.0.0-hadoop2.2.0.jar->OK
按照类似的方法导入scala-compiler.jar, scala-library.jar, scala-reflect.jar //这些位于scala的安装目录下的lib目录
3、创建scala源文件HdfsWC.scala
import org.apache.spark.SparkContextimport org.apache.spark.SparkContext._class HdfsWC { def main(args: Array[String]) { val sc = new SparkContext(args(0)/*"yarn-standalone"*/,"myWordCount",System.getenv("SPARK_HOME"),null) //List("lib/spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4.jar") val logFile = sc.textFile(args(1))//"hdfs://master:9101/user/root/spam.data") // Should be some file on your system // val file = sc.textFile("D:\\test.txt") val counts = logFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _) // println(counts) counts.saveAsTextFile(args(2)/*"hdfs://master:9101/user/root/out"*/) }}
4、配置artifacts
File->Project Structure->Artifacts->点绿色'+'->jar->From modules ...->在Main Classes中点按钮“....”选中HdfsWC->OK
如下图所示将Extracted xxxx选中,点红色'-',将这些移除->OK
5、编译项目
Build->Make Project
6、打包:
Build->Build Artifacts->Build
7、在上图的Output directory中找到sp.jar
1 0
- Interlij 13编译Spark程序生成jar包
- java编译运行和生成jar包
- 编译Java文件并生成jar包
- 编译生成protobuf的jar包
- java工程打成jar包,jar包生成exe程序
- java工程打成jar包,jar包生成exe程序
- java程序导出jar、生成exe、生成安装包
- Spark学习: Spark-Scala-IntelliJ开发环境搭建和编译Jar包流程
- maven工程编译并生成可执行JAR包命令
- java环境配置,命令行编译和生成jar包
- java包应用文件编译和运行以及jar生成
- Java swing界面程序开发---生成Jar包
- 不用ide编译java程序时如何调用jar包
- Java程序在命令行下编译运行打Jar包
- Spark 代码制作jar包
- Spark jar包找不到解决方法
- spark 第三方jar包
- jar包生成命令
- 10 Maya模型基础--附加曲面、对齐曲面
- GPU旋转初稿。。。。
- PHP第二课 了解PHP的基本语法以及目录结构
- 算法竞赛入门经典-第一章源代码
- 内部排序实现(数据结构)
- Interlij 13编译Spark程序生成jar包
- 链表3 ----- 一次遍历找到中间节点
- OC编程语言学习-4
- poj 2585 Window Pains 拓扑排序
- 整合资源的价值-陈政安
- [学习小结]Ajax基本操作_HTML格式&&在jQuery中如何操作
- Nginx基本配置与优化
- 机房重构(2)——DataGridView控件使用
- 我为什么向后端工程师推荐Node.js