spark内存参数的理解
来源:互联网 发布:c语言编程透视 编辑:程序博客网 时间:2024/06/09 21:50
SPARK_DAEMON_MEMORY:分配给spark master/worker守护进程的内存(默认1g)
SPARK_DRIVER_MEMORY: driver进程使用的内存数;使用spark-submmit提交作业后,该作业会启动一个相应的driver进程。由于部署模式(deploy-mode)不同,Driver进程可能在本地启动也可能在某个工作节点启动,driver进程本身会会占有一定数量的内存和cpu core
SPARK_WORKER_MEMORY: 允许spark 应用使用的单节点总内存数 (default: total memory minus 1 GB)
SPARK_WORKER_CORES: 允许spark 应用使用的单节点核数 (default: all available cores).
SPARK_EXECUTOR_MEMORY : spark应用的executor内存参数,由单个应用自行配置,参数值最终会被设置到Executor的JVM的heap尺寸上,对应的就是Xmx和Xms的值
SPARK_EXECUTOR_CORES : spark应用的executor内核参数,由单个应用自行配置。
SPARK_DRIVER_MEMORY: driver进程使用的内存数;使用spark-submmit提交作业后,该作业会启动一个相应的driver进程。由于部署模式(deploy-mode)不同,Driver进程可能在本地启动也可能在某个工作节点启动,driver进程本身会会占有一定数量的内存和cpu core
SPARK_WORKER_MEMORY: 允许spark 应用使用的单节点总内存数 (default: total memory minus 1 GB)
SPARK_WORKER_CORES: 允许spark 应用使用的单节点核数 (default: all available cores).
SPARK_EXECUTOR_MEMORY : spark应用的executor内存参数,由单个应用自行配置,参数值最终会被设置到Executor的JVM的heap尺寸上,对应的就是Xmx和Xms的值
SPARK_EXECUTOR_CORES : spark应用的executor内核参数,由单个应用自行配置。
阅读全文
0 0
- spark内存参数的理解
- Spark内存参数调节
- Yarn下Mapreduce的内存参数理解
- spark集群参数配置理解
- Yarn下Mapreduce的内存参数理解&xml参数配置
- Spark学习——spark中的几个概念的理解及参数配置
- spark RDD的理解
- Spark SQL的理解
- 理解Spark的RDD
- spark RDD的理解
- Spark RDD的理解
- 理解Spark的RDD
- 理解Spark的运行机制
- spark 运行内存异常及参数调整
- C++ 内存存储,参数传递的深度理解
- [YARN] Yarn下Mapreduce的内存参数理解
- spark学习-18-Spark的Core理解
- spark学习-20-Spark的sample理解
- 在 Stack Overflow 远程办公是一种怎样的体验?
- JavaScript入门基础
- 暑期小结
- Hadoop Shell命令
- CGBitmapContextCreate参数详解
- spark内存参数的理解
- Java基础(十一)泛型与集合类
- iOS CALayer mask 属性
- 同一服务器下启动多个tomcat
- 数据库 笔试
- mycat学习04之eclipse运行mycat1.6源码
- [LintCode 109] 数字三角形(Python)
- Http协议详解
- python3中easygui