spark完全分布式安装

来源:互联网 发布:淘宝零信誉店铺转让 编辑:程序博客网 时间:2024/06/02 20:29

Spark完全分布式安装

1. 下载正确的java, scala(注意下载.tgz版本)安装并配置环境变量(省略)

2. 下载spark,然后配置slaves和spark-env.sh

cp slaves.template slavescp spark-env.sh.template spark-env.sh

Spark-env.sh(可不配置,此时采用默认参数):
这里写图片描述
slaves:

这里写图片描述

3.配置spark的环境变量

4.将spark文件夹复制到node2和node3上

scp –r spark node2:/usr/software/sparkscp –r spark node3:/usr/software/spark

5.将配置文件传到node2和node3上并使其即时生效(省略)

6.修改conf/spark-defaults.conf:

添加spark.master spark://node1:7077 此行默认将程序跑在集群上,避免后续每次加参数spark-shell –master spark://node1:7077

原创粉丝点击