spark1.6.1集群部署(standalone)

来源:互联网 发布:电信4g网络制式fdd普及 编辑:程序博客网 时间:2024/05/22 03:32

1. 节点准备

192.168.137.129 spslave2192.168.137.130 spmaster192.168.137.131 spslave1

2. 修改主机名

这里写图片描述

3. 配置免密码登录

  1. 首先到用户主目录(cd ~),ls -a查看文件,其中一个为“.ssh”,该文件价是存放密钥的。待会我们生成的密钥都会放到这个文件夹中。
  2. 现在执行命令生成密钥:ssh-keygen -t rsa -P "" (使用rsa加密方式生成密钥)回车后,会提示三次输入信息,我们直接回车即可。
  3. 进入文件夹cd .ssh (进入文件夹后可以执行ls -a 查看文件)
  4. 将生成的公钥id_rsa.pub 内容追加到authorized_keys,执行命令:
    cat id_rsa.pub >> authorized_keys
  5. 把各个节点的authorized_keys的内容互相拷贝加入到对方的此文件中,然后就可以免密码彼此ssh连入
    这里写图片描述

4. 安装配置JDK

所有节点安装JDK1.7,安装完成后,设置环境变量:

export JAVA_HOME=/usr/java/jdk1.7.0_67-cloudera/export PATH=$JAVA_HOME/bin:$PATHexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

5. 安装配置scala

所有节点安装scala2.10.6版本:http://www.scala-lang.org/download/2.10.6.html
安装完成后,配置环境变量:

export SCALA_HOME=/usr/scala-2.10.6/export PATH=$PATH:$SCALA_HOME/bin:$SCALA_HOME/bin

6. 安装配置spark

6.1. 下载spark1.6.1

Apache spark官网下载地址: http://spark.apache.org/downloads.html

这里写图片描述

6.2. 配置spark环境变量

export SPARK_HOME=/usr/spark-1.6.0-bin-hadoop2.6export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/bin

6.3. 配置$SPARK_HOME/conf/slaves

首先将slaves.template拷贝一份,重新命名为slave2,并编译slave2内容:

这里写图片描述

6.4. 配置$SPARK_HOME/conf/spark-evn.sh

同样将spark-env.sh.template拷贝一份,命名为spark-evn.sh,追加内容:

export JAVA_HOME=/usr/java/jdk1.7.0_67-cloudera/export SPARK_MASTER_IP=spmasterexport SPARK_WORKER_MEMORY=1Gexport SCALA_HOME=/usr/scala-2.10.6/

7. 启动spark

  • 方式一
启动master./sbin/start-master.sh                  启动workers./sbin/start-slave.sh <master-spark-URL>                    master-spark-URL: spark://spmaster:7077
  • 方式一
./sbin/start-all.sh         

通过浏览器访问:http://spmaster:8080/

这里写图片描述

参考:
http://spark.apache.org/docs/latest/spark-standalone.html

原创粉丝点击