大数据IMF传奇行动绝密课程第22课:RDD的依赖关系彻底解密

来源:互联网 发布:营销数据专家网 编辑:程序博客网 时间:2024/04/28 13:11

RDD的依赖关系彻底解密

RDD依赖关系:窄依赖、宽依赖
窄依赖是指每个父RDD的Partition最多被一个子RDD的一个Partition所使用,例如map, filter等都会产生窄依赖
宽依赖是指一个父RDD的Partition被多个子RDD的Partition所使用,例如groupByKey, reduceByKey等操作都会产生宽依赖

总结:如果父RDD的一个Partition被一个子RDD的Partition所使用就是窄依赖,否则的话就是宽依赖。
如果子RDD中的Partition对父RDD的Partition依赖的数量不会随着RDD数据规模的改变而改变的话,就是窄依赖,否则的话就是宽依赖。

特别说明:对join操作有两种情况:如果说join操作的时候每个partition仅仅和已知的partition进行join,则此时的join操作就是窄依赖;其它情况的join操作就是宽依赖。

因为是确定的paritition数量的依赖关系,所以就是窄依赖,得出一个推论,窄依赖不仅包含一对一的窄依赖,还包含一对固定个数的窄依赖(也就是说对父RDD的依赖的Partition的数量不会随着RDD数据规模的改变而改变)

问题1:Task太大,计算shuffle级别的依赖关系必须计算依赖的RDD的所有的partition,并且都发生在一个Task中计算
问题2:算法要看哪些RDD用cache,数据存储的浪费。
上面两种假设的核心问题都是在遇到shuffle依赖的时候无法进行pipeline

1、从后往前推理,遇到宽依赖就断开,遇到窄依赖就把当前的RDD加入到该Stage中;
2、每个Stage里面的Task的数量是由该Stage中最后一个RDD的Partition的数量决定的
3、最后一个Stage里面的任务的类型是ResultTask,前面其它所有的Stage里面的任务的类型都是ShuffledMapTask
4、代表当前Stage的算子一定是该Stage的最后一个计算步骤!!!

补充:Hadoop中的MapReduce操作中的Mapper和Reducer在Spark中基本等量算子是map、reduceByKey

表面上看是数据在流动,实质上算子在流动(函数编程)
1、数据不动代码动
2、在一个Stage内部算子为何会流动(Pipeline)?首先是算子合并,也就是所谓的函数式编程执行的时候最终进行函数的展开从而把一个Stage内部的多个算子合并成为一个大算子(其内部包含了当前Stage中所有算子对数据的计算逻辑);其次是由于Transformation操作的Lazy特性!!! 在具体算子交给集群的Executor计算之前,首先会通过Spark Framework(DAGScheduler)进行算子的优化(基于数据本地化的Pipeline)

图22-1 RDD的依赖关系类型

图22-2 RDD的依赖举例

0 0
原创粉丝点击