利用Scala编写Wordcount并在spark框架下运行
来源:互联网 发布:淘宝黄妹子美国代购 编辑:程序博客网 时间:2024/04/28 19:13
文件名:WordCount.scala
import org.apache.spark.SparkContext._
import org.apache.spark.SparkContext
object WordCount{
def main(args:Array[String]){val sc =new SparkContext("local","master") //SparkContext有四个参数,第一个参数是spark master的位置(spark://master:7077),在本地环境下可以用local表示;第二 //个参数是程序名称,自定义一个字符串即可;第三个参数是spark安装目录;第四个是jar包存放位置。对与spark on yarn 而 //言,前两个参数尤为重要。在本程序中后两个参数不写,这两个参数可以在运行命令中添加。
val inputfile = sc.textFile("hdfs://master:9000/user/artical.txt")
val count = inputfile.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_+_) //这里的"=>" 符号是lambda表达式,即匿名函数,这里不做过多解释。
println(count)
count.saveAsTextFile("/home/hadoop/lly/20141101")
}
}
导出jar包,在命令行下运行命令:hadoop@master:/usr/local/spark$ bin/spark-submit --class WordCount --master spark://master:7077 /home/hadoop/lly/scalaword.jar
0 0
- 利用Scala编写Wordcount并在spark框架下运行
- idea+maven+scala创建wordcount,打包jar并在spark on yarn上运行
- idea+maven+scala创建wordcount,打包jar并在spark on yarn上运行
- Idea中编写并运行Spark集群(WordCount)
- scala-eclipse 编写spark简单程序 WordCount
- IDEA【基本配置1】配置SBT 和 scala 并在spark环境中进行wordcount测试(spark集群运行模式)
- idea利用scala编写wordcount 一些坑
- Eclipse+scala-plugin开发第一个spark程序WordCount并部署运行
- eclipse编写wordcount提交spark运行
- 编写第一个用scala写的spark任务,用sbt打包成jar,并单机模式下运行
- Spark安装并运行WordCount示例
- 在windows本地编写spark的wordcount
- 在hadoop环境下用spark跑wordcount(没有安装scala)
- Spark在Yarn上运行Wordcount程序
- 在LINUX下编写程序并运行
- 不用scala运行wordcount
- windows下idea编写WordCount程序,并打jar包上传到hadoop集群运行
- python、scala、java分别实现在spark上实现WordCount
- SwipeBackLayout
- 基数排序
- 【HDU2155】小黑的镇魂曲
- 如何获得开源安卓系统?
- addprefix wildcard notdir patsubst
- 利用Scala编写Wordcount并在spark框架下运行
- Django自定义用户认证系统Customizing authentication
- 听筝
- s5pv210 矩阵键盘移植笔记
- DJANGO1.6中自定义用户身份验证功能的教程[附源码]
- Sessioin+Cookie
- UVa 253
- 用DELPHI的RTTI实现数据集的简单对象化
- 人大委员建议驾车玩手机入刑