Spark学习笔记一 环境搭建

来源:互联网 发布:python基础教程pdf 编辑:程序博客网 时间:2024/06/05 05:13

一、环境介绍

我在这里用的是三台虚拟机

master 192.168.1.100

slave1 192.168.1.101

slave2 192.168.1.102

二、程序下载

这里已经把程序传到网盘上这,方便大家下载

1、hadoop-2.5.2

2、scala-2.11.6 

3、spark-1.3.1-bin-hadoop2.4

三、开始安装

1、安装hadoop,安装方法网上很多,请自行搜索

2、解压scala-2.11.6 到  /usr/local/scala

3、解压spark-1.3.1-bin-hadoop2.4 到 /usr/local/spark

4、修改配置文件

复制 spark/conf/spark-defaults.conf.template 为 spark-defaults.conf

添加如下配置信息

export SCALA_HOME=/usr/local/scalaexport JAVA_HOME=/usr/java/jdk1.7.0_65
在 spark/conf 目录下 穿件文件 slaves 内容如下

slave1slave2

5、配置环境变量

export SCALA_HOME=/usr/local/scalaexport PATH=$PATH:$SCALA_HOME/binexport SPARK_HOME=/usr/local/sparkexport PATH=$PATH:$SPARK_HOME/bin

6、讲spark 、scala 分发到集群节点上

7、spark-shell  即可进入

执行  /spark/bin/start-all.sh  即可启动spark


0 0
原创粉丝点击