Spark 动态上架下架worker
来源:互联网 发布:mac ntfs 移动硬盘 编辑:程序博客网 时间:2024/05/19 12:12
关闭 $SPARK_HOME/sbin/spark-daemon.sh --config conf/ stop org.apache.spark.deploy.worker.Worker 1 --webui-port 8081 spark://llc1:7077开启 $SPARK_HOME/sbin/spark-daemon.sh --config conf/ start org.apache.spark.deploy.worker.Worker 1 --webui-port 8081 -c 24 -m 60G spark://llc1:7077
使用命令
$SPARK_HOME/sbin/spark-daemon.sh [--config <conf-dir>] (start|stop|status) <spark-command> <spark-instance-number> <args...>
第一个参数 : –config $SPARK_HOME/conf
第二个参数 : start|stop|status
第三个参数 : org.apache.spark.deploy.worker.Worker(worker类的路径)
第四个参数 : 这个worker的号码,根据机器上已有的worker数来看
第五个参数 : 启动时的参数,下面是源码解析参数类 WorkerArguments.scala 中截取,都很清楚,传自己需要的参数即可
private def parse(args: List[String]): Unit = args match { case ("--ip" | "-i") :: value :: tail => Utils.checkHost(value, "ip no longer supported, please use hostname " + value) host = value parse(tail) case ("--host" | "-h") :: value :: tail => Utils.checkHost(value, "Please use hostname " + value) host = value parse(tail) case ("--port" | "-p") :: IntParam(value) :: tail => port = value parse(tail) case ("--cores" | "-c") :: IntParam(value) :: tail => cores = value parse(tail) case ("--memory" | "-m") :: MemoryParam(value) :: tail => memory = value parse(tail) case ("--work-dir" | "-d") :: value :: tail => workDir = value parse(tail) case "--webui-port" :: IntParam(value) :: tail => webUiPort = value parse(tail) case ("--properties-file") :: value :: tail => propertiesFile = value parse(tail) case ("--help") :: tail => printUsageAndExit(0) case value :: tail => if (masters != null) { // Two positional arguments were given printUsageAndExit(1) } masters = Utils.parseStandaloneMasterUrls(value) parse(tail) case Nil => if (masters == null) { // No positional argument was given printUsageAndExit(1) } case _ => printUsageAndExit(1)}
一个例子
$SPARK_HOME/sbin/spark-daemon.sh --config conf/ start org.apache.spark.deploy.worker.Worker 1 --webui-port 8082 -c 4 -m 9G spark://llc1:7077
0 0
- Spark 动态上架下架worker
- spark集群动态增加worker节点
- Spark源码—AKKA驱动下的Driver、Master、Worker
- [spark] Standalone模式下Master、WorKer启动流程
- Spark Worker原理
- Spark分析之Worker
- Spark Worker原理解析
- Spark源码分析-worker
- 下架正在上架的app
- Spark源码分析之Worker
- Spark源码分析之Worker
- spark worker 自动停止么 ?
- Spark的worker运行分析
- Spark Worker内部工作原理
- Spark RPC之Worker实现
- Spark的Master,Worker调试
- Spark源码分析之Worker
- spark调度系列----1. spark stanalone模式下Master对worker上各个executor资源的分配
- POJ 1606 Jugs 已被翻译
- oracle常用命令大全
- Android搜索功能的案例,本地保存搜索历史记录
- Sitemesh学习笔记
- pkg-config学习笔记
- Spark 动态上架下架worker
- sh脚本异常:/bin/sh^M:bad interpreter: No such file or directory
- 处子篇
- 算法-最小栈的实现-minStack
- Kindle connect PI by USBNetWork(To be completed)
- Android webview在https下实现ssl的双向认证
- 部署到Linux报错 Unsupported major.minor version 52.0
- 【Windows】数字签名
- HTML5混合开发工程师行业前景分析