Scala-2.12.2和Spark-2.1.0安装配置(基于Hadoop2.7.3集群)
来源:互联网 发布:超级淘宝系统下载 编辑:程序博客网 时间:2024/06/08 00:23
Hadoop集群环境
安装配置详见: Hadoop完全分布式集群安装及配置(基于虚拟机)
Ubuntu镜像版本: ubuntu-16.04.2-server-amd64.iso
JDK版本: jdk1.8
Hadoop版本: hadoop-2.7.3
已安装的Hadoop集群中主机名和对应的IP如下:
注意:
1、在安装scala和spark之前,hadoop集群环境可以开启也可以关闭(我安装的时候是把集群环境关闭的),但是在spark测试之前一定要开启hadoop,因为spark的运行需要用到Hive环境。
2、scala和spark在所有节点上都需要安装,这里先在主节点上安装,然后使用scp命令复制到其他人节点。即:下述所有配置都在主节点上操作(scala检测在所有节点上都要操作)
Scala-2.12.2
1、下载
下载地址: http://www.scala-lang.org/download/2.12.2.html(页面最下方有下载版本)
下载版本: scala-2.12.2.tgz
压缩包存放目录: /home/lina/Software/Hadoop/scala-2.12.2.tgz
2、解压
将目录切换到压缩包存放的目录,我们这里将其解压到(安装到)/opt/Hadoop/文件夹下,命令如下:
cd /home/lina/Software/Hadooptar -zxf scala-2.12.2.tgz -C /opt/Hadoop
解压之后的目录文件为/opt/Hadoop/scala-2.12.2
3、配置环境变量
使用sudo vi ~/.bashrc
打开环境配置文件,增加如下内容:
export SCALA_HOME=/opt/Hadoop/scala-2.12.2export PATH=$SCALA_HOME/bin:$PATH
使用source ~/.bashrc
使之立即生效。
4、使用scp命令将文件拷到slaves
命令如下:
cd /opt/Hadoopscp -r scala-2.12.2 hadoop2_s1:/opt/Hadoop //将scala-2.12.2文件夹复制到hadoop2_s1的/opt/Hadoop/文件夹下scp -r scala-2.12.2 hadoop2_s2:/opt/Hadoop //将scala-2.12.2文件夹复制到hadoop2_s2的/opt/Hadoop/文件夹下
5、测试环境是否安装成功
使用scala -version检测scala是否安装成功(所有节点都需要安装),若安装成功,则会出现下图内容:
Spark-2.1.0
1、下载
下载地址: http://spark.apache.org/downloads.html
选择下图所示版本:
下载版本: spark-2.1.0-bin-hadoop2.7.tgz
压缩包存放目录: /home/lina/Software/Hadoop/spark-2.1.0-bin-hadoop2.7.tgz
2、解压
将目录切换到压缩包存放的目录,我们这里将其解压到(安装到)/opt/Hadoop/文件夹下,命令如下:
cd /home/lina/Software/Hadooptar -zxf spark-2.1.0-bin-hadoop2.7.tgz -C /opt/Hadoop
解压之后的目录文件为/opt/Hadoop/spark-2.1.0-bin-hadoop2.7,使用下面的命令对文件夹重命名:
cd /opt/Hadoopmv spark-2.1.0-bin-hadoop2.7 spark-2.1.0-hadoop2.7 //将文件夹重命名为spark-2.1.0-hadoop2.7
3、配置环境变量
使用sudo vi ~/.bashrc
打开环境配置文件,增加如下内容:
export SPARK_HOME=/opt/Hadoop/spark-2.1.0-hadoop2.7export PATH=$SPARK_HOME/bin:$PATH
使用source ~/.bashrc
使之立即生效。
4、修改配置文件
以下操作在$SPARK_HOME/conf/文件夹下操作,因为文件夹中只有默认配置文件,所以使用下面的命令,复制一份并重命名:
cp spark-env.sh.template spark-env.shcp slaves.template slaves
(1)修改spark-env.sh
使用sudo vi slaves
打开文件,配置如下内容:
export SCALA_HOME=/opt/Hadoop/scala-2.12.2export JAVA_HOME=/opt/Java/jdk1.8export SPARK_MASTER_IP=hadoop2mexport SPARK_WORKER_MEMORY=800m #注意:这个大小根据自己的情况可以改动export HADOOP_CONF_DIR=/opt/Hadoop/hadoop-2.7.3/etc/hadoop
(2)修改slaves
使用sudo vi slaves
打开文件,配置如下内容:
hadoop2mhadoop2_s1hadoop2_s3
5、使用scp命令将文件拷到slaves
命令如下:
cd /opt/Hadoopscp -r spark-2.1.0-hadoop2.7 hadoop2_s1:/opt/Hadoop //将spark-2.1.0-hadoop2.7文件夹复制到hadoop2_s1的/opt/Hadoop/文件夹下scp -r spark-2.1.0-hadoop2.7 hadoop2_s2:/opt/Hadoop //将spark-2.1.0-hadoop2.7文件夹复制到hadoop2_s2的/opt/Hadoop/文件夹下
6、测试是否安装成功
启动hadoop集群,使用spark-shell
测试(根目录下即可),结果如下图:
参考文章:http://www.cnblogs.com/purstar/p/6293605.html
- Scala-2.12.2和Spark-2.1.0安装配置(基于Hadoop2.7.3集群)
- Hadoop2.2集群安装配置-Spark集群安装部署
- mysql5.7.18安装、Hive2.1.1安装和配置(基于Hadoop2.7.3集群)
- Win下使用Eclipse开发scala程序配置(基于Hadoop2.7.3集群)
- Spark-2.1.1集群的安装和配置(基于Hadoop-2.7.3)
- spark学习1--centOS7.2下基于hadoop2.7.3的spark2.0集群环境搭建
- hadoop2.7.3集群安装配置
- Hadoop2.0集群安装配置
- Zookeeper3.4.9、Hbase1.3.1、Pig0.16.0安装及配置(基于Hadoop2.7.3集群)
- hadoop2.2.0集群安装和配置
- spark、scala安装配置
- 【Spark】Spark2.0.2在Hadoop2.7.3上的安装 二(集群安装)
- centos6.8平台上安装hive(基于Mysql6.5 和hadoop2.7.3伪分布集群下)
- hadoop2集群安装和测试之软件安装配置
- Hadoop2.2.0集群安装配置
- Hadoop2.6.4集群安装配置
- hadoop2.7.3 集群安装
- hadoop2.2集群安装
- Meteor Shower POJ
- Float.isNaN() 方法
- 判断进程是否存在、Activity是否在前台显示
- Spring Boot + Mybatis + Redis二级缓存开发指南
- VS2010 [warning C4996]'sprintf':vs2013出现 'MBCS_Support_Deprecated_In_MFC':
- Scala-2.12.2和Spark-2.1.0安装配置(基于Hadoop2.7.3集群)
- 嵌入式学习12(数组,指针,指针与数组)
- Oracle中查看所有表和字段以及表注释.字段注释
- 深入浅出TensorFlow(六)TensorFlow高层封装
- 多条目加载
- SQL三表连接查询
- 实例以及详解localStorage进行本地存储
- 程序:计算1!+2!+3!+4!+.....+n!
- Lombok(1.14.8)的简单示例