spark2.2.0安装配置
来源:互联网 发布:手机淘宝店铺首页网址 编辑:程序博客网 时间:2024/06/08 16:26
依赖环境:
java1.8
scala2.11.8
hadoop2.7.3
说明:
主机host映射:
192.168.238.100 node01
192.168.238.101 node02
192.168.238.102 node03
其中node01上安装master,node02、node03上安装worker
node01先配置ssh到node02、node03
修改配置
cd spark-2.2.0/conf/
spark-env.sh
cp spark-env.sh.template spark-env.shvi spark-env.sh末尾添加:export JAVA_HOME=/export/servers/jdk1.8.0_102export SCALA_HOME=/export/servers/scala-2.11.8export HADOOP_HOME=/export/servers/hadoop-2.7.3export HADOOP_CONF_DIR=/export/servers/hadoop-2.7.3/etc/hadoopexport SPARK_MASTER_IP=node01export SPARK_MASTER_PORT=7077export SPARK_WORKER_MEMORY=1g
slaves
cp slaves.template slavesvi slaves内容localhost替换为:node02node03
分别拷贝到节点node02,node03
scp -r /export/servers/spark-2.2.0/ bingo@node02:/export/servers/scp -r /export/servers/spark-2.2.0/ bingo@node03:/export/servers/
分别加入环境变量
vi /etc/profile# 添加export SPARK_HOME=/export/servers/spark-2.2.0export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
分别刷新环境
source /etc/profile
在node01上启动和停止:
启动master:start-master.sh启动所有slave:start-slaves.sh停止:stop-master.shstop-slaves.shweburl:http://node01:8080/
阅读全文
0 0
- spark2.2.0安装配置
- Spark2.0安装配置
- spark2.2.0 SBT配置
- Spark2.1.0安装和配置
- spark2.2.0全分布式配置
- Spark2.0.1伪分布式安装配置
- Mac下Spark2.1.0的伪分布式安装配置
- 安装配置Hadoop2.7.5+Spark2.2.1伪分布式环境
- Spark2.1.1Idea配置
- Spark2.0安装
- spark2.1集群安装
- Spark2.0安装
- centos6.5安装spark2
- Spark2.x集群安装
- spark2.1.0安装步骤
- Linux安装Spark2.0.2步骤
- CDH 安装spark2 缺包
- Spark2.1.0分布式集群安装
- HTML页悬浮div的两种方式
- 越努力越幸运
- Android studio运行JNI程序以及生成.so文件(Windows下)
- ospf引入静态路由后面的type1与 type2
- 关于看到的相关 小波变换
- spark2.2.0安装配置
- C/C++相互调用
- 第七章 函数表达式
- SpriteKit快速入门和新时代iOS游戏开发指南
- 面试问题
- 一个操作系统的实现笔记2:计算机的启动过程
- tomcat中直接使用第3放jar包
- Maven入门介绍
- mysql关闭binlog的两个参数