Spark的Worker/Instance /Executor之间的

来源:互联网 发布:tfboys字体软件下载 编辑:程序博客网 时间:2024/05/24 04:58


FAQ

Spark配置中,可以配置 SPARK_WORKER_INSTANCES 实现每台机器启动多个Worker Instance,在什么情况下需要这么做呢?

如果使用Mesos或Yarn作为Spark应用的资源管理器,每个Worker默认就可以启动多个Executor。但是如果使用Standalone模式,则每个Worker只能启动一个Executor,所以如果每台机器想启动多个Executor则就需要配置多个Worker实例。

0 0
原创粉丝点击