IDEA非sbt下spark开发
来源:互联网 发布:免费开源oa系统 java 编辑:程序博客网 时间:2024/05/11 18:36
- 创建非sbt的scala项目
- 引入spark的jar包
File->Project Structure->Libararies引用spark-assembly-1.5.2-hadoop2.6.0.jar
- 编写代码
import scala.math.randomimport org.apache.spark._/** * Created by code-pc on 16/3/2. */object test1 { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Spark Pi").setMaster("local") val spark = new SparkContext(conf) val slices = if (args.length > 0) args(0).toInt else 2 val n = 100000 * slices val count = spark.parallelize(1 to n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce(_ + _) println("Pi is roughly " + 4.0 * count / n) spark.stop() }}
- 编译jar包
File -> Project Structure -> Artifacts -> + -> Jars -> From moudles with dependencies
菜单栏:build Artifacts
- 运行
./spark-submit --class test1 --master local ~/IdeaProjects/test1/out/artifacts/Pi/test1.jar
0 0
- IDEA非sbt下spark开发
- IDEA下用SBT搭建Spark Helloworld
- Spark 1.0 开发环境构建:maven/sbt/idea
- Spark 1.0 开发环境构建:maven/sbt/idea
- Spark 1.0 开发环境构建:maven/sbt/idea
- 使用 Intellij IDEA + SBT 做 Spark 开发环境[1]
- idea sbt Spark环境搭建
- day9 IDEA 下spark 开发
- Windows下使用sbt打造Intellij Idea环境下Spark源码阅读环境
- 使用idea sbt运行spark程序
- Window下spark开发环境搭建IDEA
- Intellij idea下spark开发HelloWorld
- IntelliJ IDEA下的Spark程序开发
- Windows下用IDEA进行Spark开发
- spark在idea下的开发调试
- sbt笔记三 用IDEA和Eclipse开发sbt项目
- 了解、安装sbt,使用sbt(console、IDEA)以及IDEA中打包spark的jar包
- Windows下IDEA,Git,SBT整合详解
- 杭电1047
- Odoo 8.0深入浅出开发教程(七) Odoo开发之扩展现有模块
- 蓝桥杯历届-罗马数字
- 万氏童子功
- 限制软件更新的方法和系统
- IDEA非sbt下spark开发
- iOS中按钮取消重复选择执行同一事件的方法
- 从输入框获取输入,插入到文本框
- usaco 1-2-3 Name That Number
- leetcode226 Invert Binary Tree
- 面试题
- Java中生成随机数
- ARM-Linux内核移植之(一)——内核启动流程分析
- 堆排序的c++实现代码