spark内核揭秘-spark任务调度系统
来源:互联网 发布:虚拟充值软件 编辑:程序博客网 时间:2024/05/01 18:34
Spark的任务调度系统如下所示:
从上图中可以看出来由RDD Objects产生DAG,然后进入了DAGScheduler阶段,DAGScheduler是面向state的高层次的调度器,DAGScheduler把DAG拆分成很多的tasks,每组的tasks都是一个state,每当遇到shuffle就会产生新的state,可以看出上图一共有三个state;DAGScheduler需要记录那些RDD被存入磁盘等物化动作,同时需寻找task的最优化调度,例如数据本地性等;DAGScheduler还要监视因为shuffle输出导致的失败,如果发生这种失败,可能就需要重新提交该state:
DAGScheduler划分state后以TaskSet为单位把任务,把任务交给底层次的可插拔的调度器TaskScheduler来处理:
可以看出TaskScheduler是一个trait,在目前spark系统中TaskScheduler的实现类只有一个TaskSchedulerImpl:
一个TaskScheduler只为一个SparkContext实例服务,TaskScheduler接受来自DAGScheduler发送过来的分组的任务,DAGScheduler给TaskScheduler发送任务的时候是以Stage为单位来提交的,TaskScheduler收到任务后负责把任务分发到集群中Worker的Executor中去运行,如果某个task运行失败,TaskScheduler要负责重试;另外如果TaskScheduler发现某个Task一直未运行完,就可能启动同样的任务运行同一个Task,那个任务先运行完就用哪个任务的结果。
TaskScheduler发送的任务交给了Worker上的Executor以多线程的方式运行,每一个线程负责一个任务:
其中的存储系统的管理是BlockManager来负责的:
看一下TaskSet的源码:
从TaskSet源码的第一个参数tasks就可以看出其是一个Task的数组,包含一组Task。
- spark内核揭秘-spark任务调度系统
- spark内核揭秘-04-spark任务调度系统个人理解
- 深入Spark内核:任务调度(2)-DAGScheduler
- 深入Spark内核:任务调度(3)-TaskScheduler
- 深入Spark内核:任务调度(4)-Task
- spark任务调度
- Spark的任务调度
- Spark任务调度
- spark任务调度
- Spark任务调度流程
- Spark 任务调度概述
- spark内核揭秘-02-spark集群概览
- spark内核揭秘-03-spark核心组件
- 深入Spark内核:任务调度(1)-基本流程
- 深入Spark内核:任务调度(1)-基本流程
- spark任务调度(一)
- 使用Azkaban调度Spark任务
- 深入浅出之Spark任务调度
- How to Interactively Create a Docker Container
- LibUSB-Win32
- Spring AOP 实现写事件日志功能
- iOS 基础篇12- 定时器的使用
- linux脚本 运行java程序引入jar
- spark内核揭秘-spark任务调度系统
- 创建一个上线web需要的思考问题(一)
- libusb的使用教程和例子
- 液压阀工作原理及动画
- 出现( linker command failed with exit code 1)错误总结
- java程序命令行运行——札记
- Instant Run requires 'Tools | Android | Enable ADB integration' to be enabled.
- 关于WINUSB
- java 十进制整数转换为二进制!