Spark开发-Standalone模式
来源:互联网 发布:数据真实性 英文 编辑:程序博客网 时间:2024/04/29 21:45
Standalone模式
在Spark Standalone模式中,spark集群有Master节点和worker节点组成,用户程序通过与master节点交互,申请所需的资源,Worker节点负责具体executor的启动运行。
以WordCount为例,Standalone模式下的应用程序的启动命令如下
./bin/run-example org.apache.spark.examples.JavaWordCount spark://192.168.18.140:7077
内部实现原理
如图,Standalone模式使用SparkDeploySchedulerBackend配合TaskSchedulerImp1工作,而SparkDeploySchedulerBackend本身拓展自CoarseGrainedSchedulerBackend.
CoarseGrainedSchedulerBackend是一个基于Akka Actor实现的粗粒度的资源调度类,在整个Spark作业运行期间,CoarseGrainedSchedulerBackend会监听并持有注册给它的executor资源,并且在接受executor注册、状态更新、相应Scheduler请求等各种时刻,根据现有Executor资源发起任务调度流程。
Executor本身是可以通过各种途径启动的,在Spark Standalone模式中,SparkDeploySchedulerBackend通过client类向Spark Master发送请求,在独立部署的spark集群中启动CoarseGrainedExecutorBackend,根据所需的CPU资源的数量,一个或多个CoarseGrainedExecutorBackend在Spark Worker节点上启动并注册给CoarseGrainedSchedulerBackend的Driver Actor
完成所需Actor的启动后,任务调度就在CoarseGrainedSchedulerBackend和CoarseGrainedExecutorBackend的Actor之间直接完成
- Spark开发-Standalone模式
- Spark Standalone模式应用程序开发
- Spark Standalone模式应用程序开发
- spark standalone模式配置
- Spark standalone模式安装
- Spark Standalone模式
- 安装spark - standalone模式
- Spark Standalone模式部署
- spark standalone&&yarn模式
- Spark Standalone模式搭建
- spark standalone模式 zeppelin安装
- 005-spark standalone模式安装
- Spark Standalone完全分布模式
- spark+hadoop Standalone模式 搭建
- Spark -5:Standalone 集群模式
- spark standalone模式 环境搭建
- spark环境搭建--Standalone模式
- Spark的standalone模式部署
- 编辑crontab添加Linux计划任务
- 自己动手搞一个拖动滑块,点击水波纹效果
- Linux简介
- plsql存储过程和java
- 【1127】假身份证
- Spark开发-Standalone模式
- SpringCloud第六篇-Zuul
- C++数组的使用
- java 基础的数组 添加
- 哈希表查找不成功的ASL问题
- git有关问题
- 线程安全
- python爬虫之异步XHR爬取
- 【1300】验证哥德巴赫猜想