hadoop之spark完全分布式环境搭建
来源:互联网 发布:上海海典软件 编辑:程序博客网 时间:2024/05/20 19:32
hadoop之spark完全分布式环境搭建
配置scala
1)下载Scala安装包scala-2.11.4.tgz安装
rpm -xzvf scala-2.11.4.tgz
2)添加Scala环境变量,在~/.bashrc
中添加:
export SCALA_HOME=/usr/local/scalaexport PATH=$SCALA_HOME/bin:$PATH
2)验证Scala是否成功:
scala -version
配置SPARK
下载二进制包spark-2.2.0-bin-hadoop2.7.tgz网址:http://spark.apache.org/downloads.html,最新为2.2.0
步骤
tar开文件包
tar -xzvf spark-2.2.0-bin-hadoop2.7.tgz
重命名
`mv spark-2.2.0-bin-hadoop2.7 spark`
配置环境变量
vi ~/.bashrc
添加export SPARK_HOME=/usr/local/sparkexport PATH=$SPARK_HOME/bin:$PATH
保存后执行
source ~/.bashrc
执行spark-shell
看是否配置成功进入conf文件夹,复制
spark-env.sh.template
成spark-env.sh
,并添加如下内容export JAVA_HOME=/usr/local/javaexport SCALA_HOME=/usr/local/scalaexport HADOOP_HOME=/usr/local/hadoopexport HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoopexport SPARK_MASTER_HOST=masterexport SPARK_LOCAL_IP=192.168.1.151export SPARK_WORKER_MEMORY=800mexport SPARK_WORKER_CORES=1export SPARK_HOME=/usr/local/sparkexport SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
复制slaves.template成slaves
cp slaves.template slaves
,修改$SPARK_HOME/conf/slaves,添加如下内容:masterslave1slave2
将配置好的spark文件和.bashrc文件复制到slave1和slave2节点
scp -r /usr/local/spark slave1:/usr/localscp -r /usr/local/spark slave2:/usr/localscp -r ~/.bashrc slave1:~/scp -r ~/.bashrc slave2:~/
最后各节点
source ~/.bashrc
在slave1和slave2修改
$SPARK_HOME/conf/spark-env.sh
,将export SPARK_LOCAL_IP=192.168.1.151
改成slave1和slave2对应节点的IP在Master节点启动集群
sbin/start-all.sh
使用
jps
查看集群是否启动成功master在Hadoop的基础上新增了: Master
slave1和slave2在Hadoop的基础上新增了: Worker
10.电脑访问http://master:8080/出现如下页面,证明搭建成功
阅读全文
0 0
- hadoop之spark完全分布式环境搭建
- hadoop完全分布式环境搭建
- Hadoop完全分布式环境搭建
- hadoop完全分布式环境搭建
- hadoop 完全分布式环境搭建
- 【Hadoop基础教程】4、Hadoop之完全分布式环境搭建
- Hadoop入门基础教程 Hadoop之完全分布式环境搭建
- Hadoop入门基础教程 Hadoop之完全分布式环境搭建
- Spark +hadoop 完全分布式搭建 以及常见问题
- [大数据]连载No3之Hadoop完全分布式环境搭建
- hadoop完全分布式环境搭建笔记
- hadoop+hbase+zookeeper完全分布式环境搭建
- Hadoop Hbase完全分布式环境搭建
- hadoop+hive-完全分布式环境搭建
- Hadoop-01-完全分布式环境搭建
- Hadoop-04-HBase完全分布式环境搭建
- hadoop+hbase完全分布式环境搭建
- hbase+hadoop完全分布式环境搭建
- Struts2的工作流程图
- C#压缩图片质量或长宽
- spring Quartz 源码分析--触发器类SimpleTriggerBean源码剖析
- Java 按深度打印二叉树
- Premodel Workflow
- hadoop之spark完全分布式环境搭建
- springmvc validate 记录
- 在Linux下编译C或C++程序的教程
- adb devices 命令找不到夜神模拟器
- 一次性获取多个oracle序列的值,实现关联表多数据的批量insert
- 《java编程思想》P160-P180(第八章部分+第九章部分)
- html2canvas 将html代码转为图片
- POJ 3356 AGTC(经典DP最短编辑距离)
- 使用solrJ管理索引库