Flink流处理迭代之化解反馈环
来源:互联网 发布:税友集团怎么样 知乎 编辑:程序博客网 时间:2024/05/22 09:29
我们都知道Flink在可迭代的流处理中引入了反馈边来将本次迭代的结果反馈给迭代头以进行下一次迭代,这在执行拓扑中引入了环(反馈环)。Flink主要应对的执行拓扑还是有向无环图(DAG),最终它选择了将反馈环进行化解使其能够适配有向无环图的结构,而如何对反馈环进行化解是我们这一篇主要探讨的话题。
任何提交给Flink执行的程序在提交之前都必须先生成作业图,对于用DataStream API编写的流处理程序在生成作业图之前,还会先生成流图。因此,如果想化解迭代产生的反馈环其时机只能是在部署执行之前的流图和作业图中,而不可能是在最终的执行图中,事实上经过分析,我们发现它发生在流图中。
Flink生成流图的部件主要是流图生成器(StreamGraphGenerator)。它会对流处理程序进行遍历、转换。跟迭代有关的转换是我们上一篇所分析的FeedbackTransformation和CoFeedbackTransformation。
首先,我们来看对FeedbackTransformation的转换:
private <T> Collection<Integer> transformFeedback(FeedbackTransformation<T> iterate) { //检查迭代的反馈边,如果没有反馈边,则无法形成迭代的“环”,这时就抛出异常 if (iterate.getFeedbackEdges().size() <= 0) { throw new IllegalStateException("Iteration " + iterate + " does not have any feedback edges."); } //获得迭代的上游输入端对应的转换 StreamTransformation<T> input = iterate.getInput(); List<Integer> resultIds = new ArrayList<>(); //对上游输入进行(递归)转换以获得转换编号集合 Collection<Integer> inputIds = transform(input); //将转换编号集合加入结果集合中 resultIds.addAll(inputIds); //因为转换是递归进行的,所以为防止重复转换,会将已转换过的对象将入alreadyTransformed集合中 //在对当前转换对象进行转换之前会预先检查该集合,如果当前转换对象已处于该集合中,则直接返回对应的编号集合,防止重复转换 if (alreadyTransformed.containsKey(iterate)) { return alreadyTransformed.get(iterate); } //这里将迭代这一在执行图中的环看作一个闭合的整体,认为它也有source和sink,为其创建source和sink的二元组 Tuple2<StreamNode, StreamNode> itSourceAndSink = streamGraph.createIterationSourceAndSink( iterate.getId(), getNewIterationNodeId(), getNewIterationNodeId(), iterate.getWaitTime(), iterate.getParallelism()); //获得迭代source和sink StreamNode itSource = itSourceAndSink.f0; StreamNode itSink = itSourceAndSink.f1; //在StreamGraph中为这两个顶点设置序列化器 streamGraph.setSerializers(itSource.getId(), null, null, iterate.getOutputType() .createSerializer(env.getConfig())); streamGraph.setSerializers(itSink.getId(), iterate.getOutputType() .createSerializer(env.getConfig()), null, null); //将迭代的source顶点的编号也作为结果集合的一部分,这是为了让下游的算子将其视为输入 resultIds.add(itSource.getId()); //将反馈转换对象以及其对应的结果集合的映射关系加入已遍历的Map中,这样在进行反馈边转换时,当它们向上递归转换时 //遇到当前的反馈转换对象将停止递归转换 alreadyTransformed.put(iterate, resultIds); //遍历迭代的所有反馈边,并将所有反馈边对应的转换对象编号加入allFeedbackIds中 List<Integer> allFeedbackIds = new ArrayList<>(); for (StreamTransformation<T> feedbackEdge : iterate.getFeedbackEdges()) { //对反馈边转换对象执行递归转换 Collection<Integer> feedbackIds = transform(feedbackEdge); //将获取到的反馈边转换对象编号集合加入allFeedbackIds allFeedbackIds.addAll(feedbackIds); //遍历所有的反馈转换对象的编号,并在StreamGraph中构建从反馈转换对象到迭代sink之间的边 for (Integer feedbackId: feedbackIds) { streamGraph.addEdge(feedbackId, itSink.getId(), 0); } } //决定所有的反馈对象的”槽共享组“名 String slotSharingGroup = determineSlotSharingGroup(null, allFeedbackIds); //为迭代sink设置槽共享组名称 itSink.setSlotSharingGroup(slotSharingGroup); //为迭代source设置槽共享组名称 itSource.setSlotSharingGroup(slotSharingGroup); //返回该转换对象对应的编号结果集 return resultIds;}
Flink在流图中如何处理迭代产生的”环“呢?从上面的转换方法的实现中可以看出一些端倪。我们看到它在内部调用了createIterationSourceAndSink这一创建“伪”source和sink的方法。通过这种方式,将迭代产生的“环”转化成了虚拟的输入输出。我们以之前的迭代案例的实现代码为示例,来看一下其通过计划可视化器所产生的流图:
注意,通过计划可视化器展示的流图并不能完整地展示程序的执行拓扑,它会丢失一些信息,比如虚拟节点等。
上面的流图中并没有因为迭代而产生环,而是多了IterationSource-3以及IterationSink-3这两个节点。代码段中创建这两个节点的createIterationSourceAndSink方法实现如下:
public Tuple2<StreamNode, StreamNode> createIterationSourceAndSink(int loopId, int sourceId, int sinkId, long timeout, int parallelism) { //创建一个source节点实例,这里我们尤其关注第三个参数,它对应的执行时的任务类是StreamIterationHead StreamNode source = this.addNode(sourceId, null, StreamIterationHead.class, null, "IterationSource-" + loopId); sources.add(source.getId()); setParallelism(source.getId(), parallelism); //创建一个sink节点实例,它对应的执行时的任务类是StreamIterationTail StreamNode sink = this.addNode(sinkId, null, StreamIterationTail.class, null, "IterationSink-" + loopId); sinks.add(sink.getId()); setParallelism(sink.getId(), parallelism); iterationSourceSinkPairs.add(new Tuple2<>(source, sink)); //建立节点编号与代理的关系 this.vertexIDtoBrokerID.put(source.getId(), "broker-" + loopId); this.vertexIDtoBrokerID.put(sink.getId(), "broker-" + loopId); this.vertexIDtoLoopTimeout.put(source.getId(), timeout); this.vertexIDtoLoopTimeout.put(sink.getId(), timeout); return new Tuple2<>(source, sink);}
上面代码段中创建source和sink时,分别指定了这两个节点在最终被部署执行时所对应的任务类(StreamIterationHead和StreamIterationTail)。这两个类如何协作是了解可迭代的流处理程序执行机制的关键,我们将会在下一篇对其进行详细分析。在创建完source和sink节点之后,我们还看到了建立节点编号跟代理(broker)编号映射关系的代码。这里的代理主要用于为迭代头和迭代尾交换数据。
在流图中生成的source和sink二元组有什么作用呢?它将会在流处理程序生成作业图的过程中获得迭代source、sink并将它们相应的作业顶点加入到同一个CoLocationGroup中:
for (Tuple2<StreamNode, StreamNode> pair : streamGraph.getIterationSourceSinkPairs()) { CoLocationGroup ccg = new CoLocationGroup(); JobVertex source = jobVertices.get(pair.f0.getId()); JobVertex sink = jobVertices.get(pair.f1.getId()); ccg.addVertex(source); ccg.addVertex(sink); source.updateCoLocationGroup(ccg); sink.updateCoLocationGroup(ccg);}
Flink会确保伪source/sink对被放置到同一个TaskManager上且分区完全对应得执行。
对CoFeedbackTransformation的转换,跟FeedbackTransformation有所不同。它不需要去转换输入端对应的转换对象然后再通过返回输入转换的编号以将输入连接到迭代头,因为输入将对接到可连接的迭代流的左侧输入端,所以仅需要返回反馈边对应的转换对象的编号,反馈边会被用来对接到可连接的迭代流的右侧输入端。
微信扫码关注公众号:Apache_Flink
QQ扫码关注QQ群:Apache Flink学习交流群(123414680)
- Flink流处理迭代之化解反馈环
- Flink流处理之迭代案例
- Flink流处理之迭代任务
- Flink流处理之迭代API分析
- Flink流处理之窗口算子分析
- Flink批处理中的增量迭代
- Flink流处理与Kafka流
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink实战基础002--flink特性:流处理特性介绍
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink实战基础003--flink特性:流处理,批处理珠联璧合
- Flink流计算编程--流处理引擎的选型
- Apache Flink:流处理中Window的概念
- 实时流处理Storm、Spark Streaming、Samza、Flink孰优孰劣
- 回顾2016--Apache Flink流处理在生产中的实践
- Flink运行时之流处理程序生成流图
- 云星数据---Apache Flink实战系列(精品版)】:Flink流处理API详解与编程实战012-Flink在流处理中常见的sink和source001
- 云星数据---Apache Flink实战系列(精品版)】:Flink流处理API详解与编程实战013-Flink在流处理中常见的sink和source002
- Flink之三 flink on yarn
- Flink-CEP之NFA
- jqGrid一次加载显示多张表(加载local数据)
- 对BaseFragment的封装
- ROS入门3: 创建ROS程序包
- 二十六个月Android学习工作总结
- MongoDB
- Flink流处理迭代之化解反馈环
- JVM源码---教你傻瓜式编译openjdk7(JAVA虚拟机爱好者必看)
- 使用STS开发第一个Spring Maven Web项目
- 手机号码正则手机号码判断
- 利用脚本快速修改IP
- perl 正则匹配多个
- Beautiful Soup学习
- remember
- Oracle使用sqluldr2快速导出数据