Scala-2.12.2和Spark-2.1.0安装配置(基于Hadoop2.7.3集群)

来源:互联网 发布:超级淘宝系统下载 编辑:程序博客网 时间:2024/06/08 00:23

Hadoop集群环境

安装配置详见: Hadoop完全分布式集群安装及配置(基于虚拟机)
Ubuntu镜像版本: ubuntu-16.04.2-server-amd64.iso
JDK版本: jdk1.8
Hadoop版本: hadoop-2.7.3

已安装的Hadoop集群中主机名和对应的IP如下:

主机名 IP hadoop2m(master) 192.168.163.131 hadoop2_s1(slave) 192.168.163.132 hadoop2_s2(slave) 192.168.163.133


注意:
1、在安装scala和spark之前,hadoop集群环境可以开启也可以关闭(我安装的时候是把集群环境关闭的),但是在spark测试之前一定要开启hadoop,因为spark的运行需要用到Hive环境。
2、scala和spark在所有节点上都需要安装,这里先在主节点上安装,然后使用scp命令复制到其他人节点。即:下述所有配置都在主节点上操作(scala检测在所有节点上都要操作)

Scala-2.12.2

1、下载

下载地址: http://www.scala-lang.org/download/2.12.2.html(页面最下方有下载版本)
下载版本: scala-2.12.2.tgz
压缩包存放目录: /home/lina/Software/Hadoop/scala-2.12.2.tgz

2、解压

将目录切换到压缩包存放的目录,我们这里将其解压到(安装到)/opt/Hadoop/文件夹下,命令如下:

cd /home/lina/Software/Hadooptar -zxf scala-2.12.2.tgz -C /opt/Hadoop

解压之后的目录文件为/opt/Hadoop/scala-2.12.2

3、配置环境变量

使用sudo vi ~/.bashrc打开环境配置文件,增加如下内容:

export SCALA_HOME=/opt/Hadoop/scala-2.12.2export PATH=$SCALA_HOME/bin:$PATH

使用source ~/.bashrc使之立即生效。

4、使用scp命令将文件拷到slaves

命令如下:

cd /opt/Hadoopscp -r scala-2.12.2 hadoop2_s1:/opt/Hadoop  //将scala-2.12.2文件夹复制到hadoop2_s1的/opt/Hadoop/文件夹下scp -r scala-2.12.2 hadoop2_s2:/opt/Hadoop  //将scala-2.12.2文件夹复制到hadoop2_s2的/opt/Hadoop/文件夹下

5、测试环境是否安装成功

使用scala -version检测scala是否安装成功(所有节点都需要安装),若安装成功,则会出现下图内容:
这里写图片描述

Spark-2.1.0

1、下载

下载地址: http://spark.apache.org/downloads.html
选择下图所示版本:
这里写图片描述
下载版本: spark-2.1.0-bin-hadoop2.7.tgz
压缩包存放目录: /home/lina/Software/Hadoop/spark-2.1.0-bin-hadoop2.7.tgz

2、解压

将目录切换到压缩包存放的目录,我们这里将其解压到(安装到)/opt/Hadoop/文件夹下,命令如下:

cd /home/lina/Software/Hadooptar -zxf spark-2.1.0-bin-hadoop2.7.tgz -C /opt/Hadoop

解压之后的目录文件为/opt/Hadoop/spark-2.1.0-bin-hadoop2.7,使用下面的命令对文件夹重命名:

cd /opt/Hadoopmv spark-2.1.0-bin-hadoop2.7 spark-2.1.0-hadoop2.7 //将文件夹重命名为spark-2.1.0-hadoop2.7

3、配置环境变量

使用sudo vi ~/.bashrc打开环境配置文件,增加如下内容:

export SPARK_HOME=/opt/Hadoop/spark-2.1.0-hadoop2.7export PATH=$SPARK_HOME/bin:$PATH

使用source ~/.bashrc使之立即生效。

4、修改配置文件

以下操作在$SPARK_HOME/conf/文件夹下操作,因为文件夹中只有默认配置文件,所以使用下面的命令,复制一份并重命名:

cp spark-env.sh.template spark-env.shcp slaves.template slaves

(1)修改spark-env.sh

使用sudo vi slaves打开文件,配置如下内容:

export SCALA_HOME=/opt/Hadoop/scala-2.12.2export JAVA_HOME=/opt/Java/jdk1.8export SPARK_MASTER_IP=hadoop2mexport SPARK_WORKER_MEMORY=800m  #注意:这个大小根据自己的情况可以改动export HADOOP_CONF_DIR=/opt/Hadoop/hadoop-2.7.3/etc/hadoop

(2)修改slaves

使用sudo vi slaves打开文件,配置如下内容:

hadoop2mhadoop2_s1hadoop2_s3

5、使用scp命令将文件拷到slaves

命令如下:

cd /opt/Hadoopscp -r spark-2.1.0-hadoop2.7 hadoop2_s1:/opt/Hadoop  //将spark-2.1.0-hadoop2.7文件夹复制到hadoop2_s1的/opt/Hadoop/文件夹下scp -r spark-2.1.0-hadoop2.7 hadoop2_s2:/opt/Hadoop  //将spark-2.1.0-hadoop2.7文件夹复制到hadoop2_s2的/opt/Hadoop/文件夹下

6、测试是否安装成功

启动hadoop集群,使用spark-shell测试(根目录下即可),结果如下图:
这里写图片描述


参考文章:http://www.cnblogs.com/purstar/p/6293605.html

阅读全文
0 0