Spark学习笔记6-Spark分布式搭建(5)——ubuntu下Spark分布式搭建

来源:互联网 发布:jquery easing.js下载 编辑:程序博客网 时间:2024/06/05 22:57

0.前言

我要搭建的集群是一台Master和3台Worker。先按照前面博客内容配置好。
Spark分布式搭建(1)——ubuntu14.04 设置root自动登入
http://blog.csdn.net/xummgg/article/details/50630583
Spark分布式搭建(2)——ubuntu14.04下修改hostname和hosts
http://blog.csdn.net/xummgg/article/details/50634327
Spark分布式搭建(3)——ubuntu下ssh无密码登入(设置ssh公钥认证)
http://blog.csdn.net/xummgg/article/details/50634730
Spark分布式搭建(4)——ubuntu下Hadoop伪分布式搭建
http://blog.csdn.net/xummgg/article/details/50641096

1.安装scala

1.1下载scala

下载地址:
http://www.scala-lang.org/download/
我在All downloads里面选择了2.10.4版本:
这里写图片描述

1.2 解压

下载保存在Downloads目录下,所以进行该目录,用tar命令直接解压到当前目录,这里的操作现在Master下进行。
这里写图片描述
拷贝到/usr/local/scala目录下
这里写图片描述

1.3配置scala环境变量

用vim命令打开系统的bashrc文件:
这里写图片描述
添加如下内容,包括bin目录加到path
这里写图片描述
用source使其生效
这里写图片描述

1.4 验证

输入scala version可以显示如下就对了:
这里写图片描述
还可以直接用scala,进行scala编程:
这里写图片描述

2.安装Spark

2.1下载Spark

下载地址:
http://spark.apache.org/downloads.html
出于学习目的,我下载的是预先编译好了的1.6版本。
这里写图片描述

2.2 解压

下载也是在Downloads目录下,用tar解压到当前:
这里写图片描述
拷贝到/usr/local/spark目录下:
这里写图片描述

2.3 配置Spark环境变量

配置也是先对Master进行,用vim命令进入bashrc:
这里写图片描述
添加如下内容,包括bin目录:
这里写图片描述

2.4 单台设置Spark文件配置

我们这里配置3个文件,

  1. 配置spark-env.sh
    因为只有临时文件spark-env.sh.template,先拷贝出spark-env.sh
    这里写图片描述
    添加如下内容:
    这里写图片描述
  2. 配置slaves
    因为只有临时文件slaves.template,先拷贝出slaves
    这里写图片描述
    修改内容如下:
    这里写图片描述
  3. 配置spark-defaults.conf
    因为只有临时文件spark-defaults.conf.template,先拷贝出spark-defaults.conf
    这里写图片描述
    添加如下内容:
    这里写图片描述
    到这里单机spark已经完成。

3.运行Spakr集群

把scala,spark,bashrc传到其他Worker上。
传scala文件夹(截图就取Worker1,Worker2,Worker3请自行传输过去):
这里写图片描述
传spark文件夹(截图就取Worker1,Worker2,Worker3请自行传输过去):
这里写图片描述
传bashrc文件,并使其有效(截图就取Worker1,Worker2,Worker3请自行传输过去):
这里写图片描述

直接在sbin下运行start-all.sh,再用jps命令查看,如下所示就是启动成功了:
这里写图片描述
登入到Worker节点,用jps查看:
这里写图片描述
登入master:80080 在页面查看:
这里写图片描述

创建一个historyserverforSpark文件夹,用来放历史日志。
这里写图片描述

可以在master:50070中查到这个文件夹:
这里写图片描述

再开启historyserver,并用jps来查看是否开启成功。
这里写图片描述
这个时候可以在页面登入到Master:18080 来查看historyserver
这里写图片描述

还可以在并里面运行,spark-shell。看到版本好了。成功啦。
这里写图片描述
到此整个搭建过程就完成来。请读者从仔细跟着这5个博客操作就可以来。


XianMing

1 0
原创粉丝点击