Spark WordCount使用示例

来源:互联网 发布:mac totalfinder 破解 编辑:程序博客网 时间:2024/05/21 00:18
package com.sparktestimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}/**  * 使用scala开发本地测试的Spark WordCount程序  */object WordCount {  def main(args: Array[String]): Unit = {    /**      * 第一步:创建Spark配置对象SparkConf,设置Spark程序的运行时的配置信息      * 例如,通过setMaster来设置程序要连接的Spark集群的MasterURL,若设置为local,则代表Spark程序在本地运行      */    val conf = new SparkConf()//创建SparkConf对象    conf.setAppName("WordCount")//设置应用程序的名称,在程序运行的监控界面可以看到名称    conf.setMaster("local")//此时程序在本地运行,不需要安装Spark集群    /**      * 第二步:创建SparkContext对象      * SparkContextSpark程序所有功能的唯一入口,无论是采用ScalaJavaPythonR等都必须有一个SparkContext      * sparkContext核心作用:初始化Spark应用程序运行所运行的核心组件,包括DAGSchedulerTaskSchedulerScheduler      * 同时还会负责Spark程序往Master注册程序等      * SparkContext是整个Spark应用程序中最为重要的对象      */    val sc = new SparkContext(conf)//创建SparkContext,通过传入SparkConf实例来定制Spark运行的具体参数和配置信息    /**      * 第三步:根据具体的数据来源,例如HDFSHBaseLocal FSDBS3等,通过SparkContext来创建RDD      * RDD的创建基本有3中方式:      * 3.1.根据外部的数据来源,例如HDFS      * 3.2.scala集合      * 3.3.由其他的RDD操作产生      * 数据会被RDD划分成为一系列的Partitions,分配到每个Partition的数据属于一个Task的处理范畴      */    val lines = sc.textFile("D://spark-1.6.0-bin-hadoop2.6//README.MD",4)//读取本地文件,并设置成一个Partition//    val linesRDD[String] = sc.textFile("D://spark-1.6.0-bin-hadoop2.6//README.MD",4)//读取本地文件,并设置成一个Partition    /**      * 第四步:对初始的RDD进行Transformation级别的处理,例如mapfilter等高阶函数的编程,来进行具体的数据计算      * 4.1将每一行的字符串拆分成单个的单词      */    val words = lines.flatMap{line => line.split(" ")}//对每一行的字符串,进行单词拆分,并把所有行的拆分结果通过flatMap合并成为一个大的单词集合    /**      * 第四步:对初始的RDD进行Transformation级别的处理,例如mapfilter等高阶函数的编程,来进行具体的数据计算      * 4.2在单词拆分的基础上对每个单词实例计数为1,也就是word => (word,1)      */    val pairs = words.map(word => (word,1))    /**      * 第四步:对初始的RDD进行Transformation级别的处理,例如mapfilter等高阶函数的编程,来进行具体的数据计算      * 4.3在单词实例计数为1的基础上统计每个单词在文件中出现的总次数      */    val wordCounts = pairs.reduceByKey(_+_)//对相同的Key进行Value的累加(包括localReducer级别同时Reduce    wordCounts.foreach(wordNumberPair => println(wordNumberPair._1 + " : " + wordNumberPair._2))    sc.stop()  }}
0 0