spark学习3 standalone下的 env和default的配置
来源:互联网 发布:js获取字符串下标 编辑:程序博客网 时间:2024/06/01 10:50
spark-env文件的配置
HADOOP_CONF_DIR=/usr/hadoopARK_MASTER_IP=localhost.localdomainSPARK_MASTER_PORT=7077SPARK_MASTER_WEBUI_PORT=8080SPARK_WORKER_CORES=1SPARK_WORKER_PORT=7078SPARK_WORKER_MEMORY=1000mSPARK_WORKER_WEBUI_PORT=8081SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://localhost:9000/sparkhistory"
hadoopdir配置了读取的文件默认都是读取hdfs,如果都本地就注释掉重新进spark-shell
最后一行是spark历史存储路径参见(module)
worker节点的excuter数量
SPARK_WORKER_INSTANCES=1
worker节点配置
slaves文件
加入master和slaves
localhost.localdomain
spark-defaults.conf
spark.master spark://localhost.localdomain:7077#log存储地址要与history一致()参见configure sparkUIspark.eventLog.enabled truespark.eventLog.dir hdfs://localhost.localdomain:9000/sparkhistory
第一行配置后,可以直接
spark-shell 不用加–master神马的
history启动
/usr/spark/sbin/start-history-server.sh
spark-submit
spark-submit --help
就可以知道怎么用
0 0
- spark学习3 standalone下的 env和default的配置
- Standalone spark-env.sh 配置
- spark的standalone的HA配置
- Spark standalone 模式下的集群部署
- Spark standalone下的运行过程
- Spark的Standalone部署
- spark的standalone集群搭建
- Spark的standalone模式部署
- spark的standalone模式部署
- Standalone模式下Spark 中通信机制的源码分析
- spark本地模式和Standalone配置
- Spark学习笔记之-Spark-Standalone下driver和executor分配
- 【Spark】Spark的Standalone模式安装部署
- 【Spark】Spark的Standalone模式安装部署
- spark standalone模式配置
- Spark Standalone环境配置
- spark standalone 集群配置
- spark学习八 standalone模式下spark应用执行过程
- ckeditor官方API
- UIKit User Interface Catalog
- 很漂亮的波浪字体
- 给Android Studio安装Genymotion插件
- C++ 重写重载重定义区别
- spark学习3 standalone下的 env和default的配置
- JAVASCRIPT通过点击按钮来改变字体颜色
- Node.js 全局对象
- C++11:使用 auto/decltype/result_of使代码可读易维护
- UITableViewCell的重用机制原理(转)
- Node.js 常用工具 util
- pb9生成guid的方法
- 日经社説 20150601 組織を活性化する行政改革を
- uefi读硬盘第一次成功,第二次却失败