spark--transform算子--repartition
来源:互联网 发布:Rstudio server mac 编辑:程序博客网 时间:2024/06/05 04:43
import org.apache.spark.{SparkConf, SparkContext}import scala.collection.mutable.ArrayBuffer/** * Created by liupeng on 2017/6/16. */object T_repartition { System.setProperty("hadoop.home.dir","F:\\hadoop-2.6.5") def fun_index(index : Int, iter : Iterator[String]) : Iterator[String] = { var list = ArrayBuffer[String]() while (iter.hasNext) { val name : String = iter.next() var fs = index + ":" + name list += fs println(fs) } return list.iterator } def fun_index1(index : Int, iter : Iterator[String]) : Iterator[String] = { var list = ArrayBuffer[String]() while (iter.hasNext) { val name : String = iter.next() var fs = index + ":" + name list += fs println(fs) } return list.iterator } def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("repartition_test").setMaster("local") val sc = new SparkContext(conf) //repartition,功能是将RDD的partition的数量增多或者减少 //建议使用场景 //一个很经典的场景,使用sparkSQL从HIVE中查询数据的时候,sparkSQL会根据HIVE对应的hdfs文件的block的数量决定加载出来的partition有多少个 //这里默认的partition的数量是我们无法设置 //有些时候,可能他会自动设置的partition的数量过于少了,为了进行优化,可以提高并行度,就是对RDD使用repartition算子 val nameList : List[String] = List("liupeng1", "liupeng2", "liuipeng3", "liupeng4", "liupeng5", "liupeng6", "liupeng7", "liupeng8", "liupeng9", "liupeng10", "liupeng11", "liupeng12" ) val nameRDD = sc.parallelize(nameList, 3) val nameRDD2 = nameRDD.mapPartitionsWithIndex(fun_index) val nameRDD3 = nameRDD2.repartition(6) val nameRDD4 = nameRDD3.mapPartitionsWithIndex(fun_index1) val info : Array[String] = nameRDD4.collect() }}
运行结果:
0:liupeng1
0:liupeng2
0:liuipeng3
0:liupeng4
0:liupeng2
0:liuipeng3
0:liupeng4
1:liupeng5
1:liupeng6
1:liupeng7
1:liupeng8
1:liupeng6
1:liupeng7
1:liupeng8
2:liupeng9
2:liupeng10
2:liupeng11
2:liupeng12
2:liupeng10
2:liupeng11
2:liupeng12
0:1:liupeng7
0:2:liupeng10
0:2:liupeng10
1:0:liupeng1
1:1:liupeng8
1:2:liupeng11
1:1:liupeng8
1:2:liupeng11
2:0:liupeng2
2:2:liupeng12
2:2:liupeng12
3:0:liuipeng3
4:0:liupeng4
4:1:liupeng5
5:1:liupeng6
5:2:liupeng9
5:2:liupeng9
阅读全文
0 0
- spark--transform算子--repartition
- Spark算子[02]:coalesce,repartition
- Spark Transformation —— repartition算子
- spark算子(repartition和coalesce)
- Spark RDD算子【二】coalesce 和 repartition
- spark--transform算子--cartesian
- spark--transform算子--coalesce
- spark--transform算子--cogroup
- spark--transform算子--distinct
- spark--transform算子--filter
- spark--transform算子--flatMap
- spark--transform算子--groupByKey
- spark--transform算子--intersection
- spark--transform算子--join
- spark--transform算子--map
- spark--transform算子--mapPartitions
- spark--transform算子--mapPartitionsWithIndex
- spark--transform算子--parallelized
- 深度学习的起源、发展和现状
- 3-共享库的创建与使用
- java中final关键字的用法
- 递归算法详解
- 时间戳转化为几天前,几小时前,几分钟前
- spark--transform算子--repartition
- 关于“智能革命”的分析与思考
- Web Api post 接受 Json 爱信不信
- 转 PHP支付宝接口RSA验证
- eclipse安装SVN插件
- leetcode刷题mark(随时更新)
- Linux进程后台运行讲解
- ios 调用通讯录
- 记一次grub丢失后的修复记录