Spark作业提交执行流程源码图

来源:互联网 发布:任务清单统计系统 php 编辑:程序博客网 时间:2024/05/17 07:36

环境:代码图基于Spark 2.2.1 工具:OmniGraffe

最近想完整梳理一下作业提交流程,通过自己的理解画图来学习Spark。

1) 首先了解作业提交后RDD的流动情况

这里写图片描述

  • 如上图,以RDD构建的DAG给DAGScheduler进行stage划分,DAGScheduler负责stage层面的提交和失败处理。
  • 然后提交taskSet给TaskScheduler进行处理,TaskScheduler负责task层面的提交和失败处理,TaskScheduler提交task给远端的worker(即executor)实际执行。

上面流程中,在TaskScheduler提交task给executor之前,所有操作都是在driver端执行(如以yarn-client提交,则为提交作业所在机器),executor接受到task后执行task作业则是executor机器上执行。

2) 更细粒度了解作业提交过程

这里写图片描述

上图是client以spark-submit形式提交作业后,从作业DAG划分、stage提交、taskSet提交,到task执行过程。步骤图上已经画出来,这里描述一下。

  1. client submit作业,通过反射invoke执行用户代码main函数。
  2. submit作业后,开始启动CoarseGrainedExecutorBackend和初始化SparkContext。
  3. SparkContext初始化包括初始化监控页面SparkUI、执行环境SparkEnv、安全管理器SecurityManager、stage划分及调度器DAGScheduler、task作业调度器TaskSchedulerImpl和与Executor通信的调度端CoarseGrainedSchedulerBackend。
  4. DAGScheduler将作业划分后,依次提交stage对应的taskSet给TaskSchedulerImpl。
  5. TaskSchedulerImpl会submit taskset给driver端的CoarseGrainedSchedulerBackend后端。
  6. CoarseGrainedSchedulerBackend会一个一个的LaunchTask
  7. 在远端的CoarseGrainedExecutorBackend接收到task提交event后,会调用Executor执行task
  8. 最终task是由TaskRunner的run方法内运行。

参考:
深入理解Spark DAG调度