spark-submit的参数名称解析
来源:互联网 发布:编译arm linux内核4.5 编辑:程序博客网 时间:2024/05/16 03:57
执行时需要传入的参数说明
Usage: spark-submit [options] <app jar | python file> [app options]
参数名称
含义
--master MASTER_URL
可以是spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local
--deploy-mode DEPLOY_MODE
Driver程序运行的地方,client或者cluster
--class CLASS_NAME
主类名称,含包名
--name NAME
Application名称
--jars JARS
Driver依赖的第三方jar包
--py-files PY_FILES
用逗号隔开的放置在Python应用程序PYTHONPATH上的.zip, .egg, .py文件列表
--files FILES
用逗号隔开的要放置在每个executor工作目录的文件列表
--properties-file FILE
设置应用程序属性的文件路径,默认是conf/spark-defaults.conf
--driver-memory MEM
Driver程序使用内存大小
--driver-java-options
--driver-library-path
Driver程序的库路径
--driver-class-path
Driver程序的类路径
--executor-memory MEM
executor内存大小,默认1G
--driver-cores NUM
Driver程序的使用CPU个数,仅限于Spark Alone模式
--supervise
失败后是否重启Driver,仅限于Spark Alone模式
--total-executor-cores NUM
executor使用的总核数,仅限于Spark Alone、Spark on Mesos模式
--executor-cores NUM
每个executor使用的内核数,默认为1,仅限于Spark on Yarn模式
--queue QUEUE_NAME
提交应用程序给哪个YARN的队列,默认是default队列,仅限于Spark on Yarn模式
--num-executors NUM
启动的executor数量,默认是2个,仅限于Spark on Yarn模式
--archives ARCHIVES
仅限于Spark on Yarn模式
- spark-submit的参数名称解析
- spark-submit的参数files
- Spark spark-submit 参数
- spark-submit常用参数
- spark submit参数说明
- Spark-submit参数说明
- spark-submit 参数
- spark-submit 和 spark-shell 后面可跟的参数
- spark-submit工具参数说明
- spark-submit工具参数说明
- spark-submit工具参数说明
- spark-submit工具参数说明
- spark submit参数调优
- spark-submit工具参数说明
- spark-submit参数优化配置
- spark submit参数调优
- spark submit参数调优
- spark的submit
- 设计模式(1) ------- 简单工厂模式
- Maven介绍,包括作用、核心概念、用法、常用命令、扩展及配置
- [Trie树] 文件夹计数
- 江北之夜
- 使用OpenFiler来模拟存储配置RAC中ASM共享盘及多路径(multipath)的测试
- spark-submit的参数名称解析
- Circular Sequence(UVa 1584)
- Kafka 集群搭建
- 在cocos2dx-lua上导入sproto的相关配置
- Vue系列之WebPack与Eslint
- List Control使用总结
- 为什么说集成学习模型是金融风控新的杀手锏?
- "cannot be resolved or is not a field"问题解决
- 大数据的处理方法