spark之5:配置文件
来源:互联网 发布:java执行sql语句 编辑:程序博客网 时间:2024/06/03 14:34
spark之5:配置文件
@(SPARK)[spark]
一、spark的参数设置方式
1、spark配置文件加载顺序
spark按以下优先级加载配置文件:
(1)用户代码中显式调用set()方法设置的选项
(2)通过spark-submit传递的参数
(3)配置文件中的值
(4)spark的默认值
以下会分别介绍各种方式。
2、set()方法
val conf = new SparkConf()
conf.set(“spark.app.name”, “ljh_test”)
conf.set(“spark.master”,”yarn-client”)
val sc = new SparkContext(conf)
3、spark-submit方式
bin/spark-submit
–class com.lujinhong.MyTest
–master yarn-client
–name “ljh_test”
myTest.jar
4、配置文件的方式
(1)spark-defaults.conf
主要是指conf/spark-defaults.conf,如:
# For monitoringspark.eventLog.enabled truespark.eventLog.dir hdfs://mycluster/tmp/spark-eventsspark.history.fs.logDirectory hdfs://mycluster/tmp/spark-eventsspark.yarn.historyServer.address 10.1.1.100:18080spark.ui.showConsoleProgress truespark.history.kerberos.enabled truespark.history.kerberos.principal hadoop/sparkhistoryserver@LUJINHONG.COMspark.history.kerberos.keytab /home/hadoop/conf/spark/spark.keytab# For executorspark.cores.max 300spark.driver.memory 2gspark.executor.memory 6gspark.executor.cores 6spark.driver.extraJavaOptions -XX:PermSize=512M -XX:MaxPermSize=2048M
文件中是以空格分开的键值对,默认加载conf/spark-defaults.conf,也可以在spark-submit中通过–properties-file指定路径。
(2)spark-env.sh
主要用于指定一些环境变量,尤其是指定YARN相关的目录,如
#!/usr/bin/env bashexport SPARK_HOME=/home/hadoop/sparkexport SPARK_LOG_DIR=/home/hadoop/logsexport SPARK_PID_DIR=/home/hadoop/pidsexport YARN_CONF_DIR=/home/hadoop/confexport HADOOP_CONF_DIR=/home/hadoop/conf# for exporting for enviroment, such as lib/nativeexport JAVA_LIBRARY_PATH=$JAVA_LIBRARY_PATH:/home/hadoop/hadoop/lib/nativeexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/hadoop/hadoop/lib/native
(3)其它
其它的配置文件还有log4j.properties, metircs.properties等。
5、spark的默认值
阅读全文
0 0
- spark之5:配置文件
- spark之5:配置文件
- spark学习 spark配置文件
- Spark配置文件详解
- Spark配置文件详解
- Spark加载外部配置文件
- spark-defaults.conf配置文件
- spark 之 spark是什么?
- Spark 之 spark submit
- spark-streaming程序打包配置文件
- spark读取配置文件中的配置
- spark加载properties配置文件方法
- spark submit 多个配置文件
- Spark组件之Spark Streaming学习5--WindowsWordCount学习
- Spark中文手册5:Spark之基本概念(3)
- Spark 入门篇之spark&spark sql
- 初识Spark之 Spark API
- 【spark】spark之shuffle调优
- 定期清理服务器日志
- Java泛型常见面试题
- maven基础教程
- 狄利克雷卷积与积性函数
- 贪心,递归,动态规划,及分治算法之间的区别和联系(二)
- spark之5:配置文件
- 练习 2-5 编写函数 any(s1, s2),将字符串s2中的任一字符在字符串s1中第一次出现的位置作为结果返回。如果s1中不包含s2中的字符,则返回-1。
- ubuntu16 jdk7 install&config
- BZOJ 1951 lucas定理 中国剩余定理
- A Knight's Journey
- 继承和多态
- GAWK 学习:AWK 语言基础
- 使用回调函数实现一个简单的计算器;
- Java8中内置的四大核心函数式接口