spark on yarn 集群 安装

来源:互联网 发布:js excel 展示 编辑:程序博客网 时间:2024/06/06 01:48

这里写图片描述

  • 一集群基础环境
    • centos65 64 位 Hadoop 完全分布httpblogcsdnnetu011414200articledetails47681711
    • 集群说明
    • 安装包
  • 二 scala 安装
  • 三安装配置spark

一.集群基础环境

1. centos6.5 64 位 Hadoop 完全分布(http://blog.csdn.net/u011414200/article/details/47681711)

2. 集群说明

主节点 master4 10.6.3.40
数据节点 slave41 10.6.3.45

3.安装包

1.hadoop-2.2.0.tar.gz(http://pan.baidu.com/s/1slaoEbb)
2.spark-2.0.1-bin-hadoop2.4.tar.gz(http://pan.baidu.com/s/1c2sqfp2)
2.scala-2.10.6.tar.tgz(http://pan.baidu.com/s/1gfNYcmB)

二. scala 安装

1.将scala-2.10.6.tar.tgz 包解压 (本文是解压在/home/zl 下)

tar -zcvf scala-2.10.6.tar.gz

2.修改环境变量
这里写图片描述
添加上图的16,17两行
注:此处环境变量是指当前用户下的环境变量

vim ~/.bash_profile
 16 export SCALA_HOME=/home/zl/scala-2.10.6 17 export PATH=$PATH:$SCALA_HOME/bin

3.使环境变量生效

source ~/bash_profile

4.验证是否安装成功

scala-version

如下图,则表示安装成功
这里写图片描述

三.安装配置spark

1.将spark-2.0.1-bin-hadoop2.4.tar.gz 安装包放入指定目录(本文是在/home/zl下),并解压到当前用户目录下

tar -zcvf spark-2.0.1-bin-hadoop2.4.tar.gz -C ~/

2.进入 spark-2.0.1-bin-hadoop2.4/conf 下

cd /home/zl/spark-2.0.1-bin-hadoop2.4/conf 

3.配置 spark-env.sh
1.将 spark-env.sh.template 文件复制并重命名为spark-env.sh

cp spark-env.sh.template spark-env.sh

2.编辑 spark-env.sh 文件
这里写图片描述

vim spark-env.sh

加入如下代码

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.45.x86_64//java路径export SCALA_HOME=/home/zl/scala-2.10.6//scala路径export HADOOP_HOME=/home/zl/spark-2.0.1-bin-hadoop2.4//spark 路径``3.编辑 worker 节点的主机

vim slaves

添加 slave41

4.将配置好的spark分发到点据节点
scp -r spark-2.0.1-bin-hadoop2.4 master4@slave41:/home/zl
5.在主节点 master4 上 sbin 目录下启动 spark
sh start-all.sh
这里写图片描述

master4 看到 master 进程

slave 看到 worke进程这里写图片描述

  1. 在10.6.3.40:8080界面

    这里写图片描述
    ok,基于 yarn 的 spark 安装成功!

0 0