spark2.2.0搭建standalone集群环境
来源:互联网 发布:lua保存数据 编辑:程序博客网 时间:2024/05/22 23:19
1.spark的几种运行模式
主要分为单机模式和集群模式,其中,集群模式支持standalone,Apache Mesos,Hadoop Yarn等模式。standalone模式是spark自己提供的一种最简单的模式,本文主要基于此模式进行阐述。
2.standalone模式启动的两种方式
2.1 手动启动集群
此模式为单个执行sbin/*下的脚本,即单独启动master和slave。
2.2 通过脚本一键启动
根据spark提供的脚本start-all.sh和stop-all.sh一次性完成所有内容的启动和停止。
首先,需要在$SPARK_HOME/conf下添加一个slaves文件,加入所有slave的hostname。本系统只有一个slave,故只需在master节点的slaves文件中追加slave1。
3.集群启动和最基本配置
除了增加slaves文件外,还需增加spark-env.sh配置文件。将master节点自带的spark-env,sh.template直接改名为spark-env.sh.这时所有配置都是被注释的,不做修改,直接采用默认配置,然后将文件copy到slave1上进行覆盖。ok,配置完毕,开始启动,执行start-all.sh。然后报错了,提示slave1的JAVA_HOME is not set。
嗯,比较诡异的错误,java环境变量master和slave是同样的配置,居然只报slave1没有设置java环境变量。搜了一圈,找到解决问题,直接在spark-env.sh追加export JAVA_HOME=/usr/java/jdk1.8.0_152即可解决。虽然不明白为什么,但先解决问题后面再研究。
再次启动,ok,没有报错,打开master和worker ui瞅瞅,正常。master ui如下图:
从图上可以看到,master已正常启动,并且slave1上的worker也正常注册进来了。
再看worker的ui,
worker ui正常显示,此时看到由于没有任务执行,executor列表是空的。
4.小结
本节内容仅完成最简单的standalone集群模式搭建,以及最基本的配置。后续再研究yarn等复杂模式,以及其他各项配置。值得注意的是,master和slave的配置最好是保持一致的,所以可以先在master上完成配置编辑,再直接copy配置到所有slave节点。另外,貌似slaves文件只需在master上创建一份即可,slave上并不需要这个文件。
阅读全文
0 0
- spark2.2.0搭建standalone集群环境
- spark2.2.0集群环境搭建
- spark standalone 集群环境搭建
- spark集群搭建,standalone
- Spark【基础篇】Spark2.2.0集群搭建
- Spark2.2.0 + Scala2.13.0集群搭建
- Spark2.2.0分布式集群搭建教程
- Spark2.1集群搭建
- spark1.3.0-hadoop2.4集群环境搭建(Standalone)
- Spark1.6.1集群环境搭建——Standalone模式HA
- Spark学习之(二)Spark 集群环境搭建(standalone)
- VirtualBox+Centos7+Hadoop2.6.0+scala-2.11.8+spark2.2.0搭建spark集群环境
- Spark2.1集群环境搭建小结(1)
- Spark2.1集群环境搭建小结(2)
- spark的standalone集群搭建
- spark standalone集群模式搭建
- Spark2.0.0集群搭建部署
- 【spark】spark2.1.1集群搭建
- 曾经它认识我,我不认识他的Linux系统
- hdu 1712 ACboy needs your help(分组背包模版)
- MVP_P层
- 2017年11月第2周学习总结
- 文章标题
- spark2.2.0搭建standalone集群环境
- zabbix入门简介
- LeetCode——Subtree of Another
- ssm基本配置
- QA测试
- c语言:输出心形图案
- 如何在 Linux 中运行 DOS 程序!
- git 简单使用
- Chapter one 浏览器生成消息——探索浏览器内部