Spark学习之(三) 小例子

来源:互联网 发布:剑网三怎么在淘宝买金 编辑:程序博客网 时间:2024/05/16 15:38

Spark学习之(三) 小例子

2017108

14:11

  

  • 使用map filter

    scala> sc.parallelize(List(1,2,3,4,5,6)).map(_ * 2).filter(_>5).collect

    res1: Array[Int] = Array(6, 8, 10, 12)

      

  • Wordcount

      

      

      

      

    val rdd = sc.textFile("/home/linxi/Documents/workspace/spark/word.data")

    //rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

    //这里使用reduceByKey,其实就是按key分组然后把value值相加

    val wordcount = rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)

    wordcount.saveAsTextFile("/home/linxi/Documents/workspace/spark/result.data")

      

    //还有一种是groupByKey,这个是纯粹的分组,分完组里面的value会生成一个array。如下:

      

  • 使用union

  • 使用Join

    生成笛卡尔积

      

  • 排序

    1中生成的结果按照value从大到小排序

    小技巧:有sortByKey这个函数,可以把keyvalue调换位置然后在排序,等排完序之后再把keyvalue调换回来。

      

      

      

      

    Spark standalone 提交

    # Run on a Spark standalone cluster
    ./bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master spark://207.184.161.138:7077 \
    --executor-memory 20G \
    --total-executor-cores 100 \
    /path/to/examples.jar \
    1000

原创粉丝点击