搭建Hadoop HA集群
来源:互联网 发布:水文气象数据的重要性 编辑:程序博客网 时间:2024/05/01 06:26
(学习笔记)
搭建Hadoop HA集群
1、准备工作:
设置IP关闭防火墙 service iptables stop service iptables status 自动关闭 chkconfig iptables off chkconfig --list |grep iptables
设置hostname(Root用户)
vi /etcs/sysconfig/network
hostname slave
在windows下绑定用户与IP地址
C:\windows\System32\drivers\etc\hosts
在虚拟机里绑定ip与hostname(Root用户下)
vi /etc/hosts
设置ssh免密码登录(用普通用户)
ssh-keygen -t rsa
mv id_rsa.pub authorized_keys
scp ~/.ssh/authorized_keys slave:~/.ssh
2、安装jdk:
tar -zxvf jdk**********.gz mv jdk********** jdk 设置配置文件: vi ~/.bash_profile,添加以下信息 export JAVA_HOME=jdk路径 export PATH=.:$JAVA_HOME/bin:$PATH : wq source ~/.bash_profile 让配置文件生效 java -version 验证jdk是否成功
3、安装Hadoop:
tar -zxvf hadoop*****************
mv hadoop****** hadoop
设置配置文件:
vi ~/.bash_profile,添加以下信息:
export JAVA_HOME=/home/wangsong/jdk
export HADOOP_HOME=/home/wangsong/hadoop
export PATH=.: $HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
source ~/.bash_profile
配置hadoop/etc/hadoop目录下的配置文件:
1)hadoop-env.sh,设置jdk路径:
export JAVA_HOME=jdk路径
2)yarn-env.sh,设置jdk路径:
gedit yarn-env.sh,也可以用vi yarn-env.sh:
export JAVA_HOME=jdk路径
3)core-site.xml
<property><name>fs.defaultFS</name><value>hdfs://master2:9000</value></property><property><name>hadoop.tmp.dir</name><value>/home/wangsong/hadoopdata</value></property></configuration>
4)hdfs-site.xml:
<property><name>dfs.replication</name><value>1</value></property></configuration>
5)yarn-site.xml:
<?xml version="1.0"?><configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>master2:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master2:18030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master2:18025</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master2:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master2:18088</value></property> </configuration>
6)mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
格式化namenode,建立namenode自己的文件结构
(注意:修改~/.bash_profile之后一定要source一下)
hadoop namenode -format
启动:
1.分步启动:
start-dfs.sh
start-yarn.sh
2.一次全部启动:
start-all.sh
查看进程:jps HDFS的进程: NameNode DataNode SecondaryNameNode Yarn的进程: ResourceManager NodeManager 主机名:50070 查看HDFS 主机名:18088 查看webApp
二、将master节点的目录、配置文件复制到slave节点下
1)
将master2的密钥复制到slave3
scp ~/.ssh/authorized_keys slave:~/.ssh
设置master节点中/home/wangsong/hodoop/etc/hadoop目录下的slaves文件:
将原先的localhost改为从节点的主机名slave
## 2、将下面目录和文件复制到slave节点下
复制/etc/hosts文件
scp /etc/hosts slave:/etc/ (需要root用户)
复制jdk目录
scp -r /home/wangsong/jdk slave:~/
复制hadoop目录
scp -r /home/wangsong/hadoop slave:~/
复制~/.bash_profile文件
scp ~/.bash_profile slave3:~/
在slave3节点中进行source ~/.bash_profile
# 3)格式化namenode
在master主节点中操作:
hadoop namenode -format
启动集群:
一次性全部启动start-all.sh
分步启动
start-dfs.sh
start-yarn.sh
主节点中的进程:
NameNode
ResourceManager
SecondaryNameNode
从节点中的进程:
DataNode
NodeManager
- Hadoop HA 集群搭建
- 搭建Hadoop HA集群
- Hadoop HA集群搭建
- Hadoop---HA集群搭建
- 【笔记】Hadoop-HA集群搭建
- hadoop HA集群的搭建
- hadoop集群和HA搭建
- Hadoop-2.6.0集群HA搭建
- hadoop HA 高可用集群部署搭建
- hadoop集群搭建HDFS、HA、 YARN
- hadoop集群搭建HDFS、HA、 YARN
- Hadoop HA高可用集群搭建
- Hadoop高可用集群搭建(HA)
- hadoop HA集群搭建(red hat)
- 基于docker的hadoop HA 集群搭建
- Hadoop HA 高可用集群搭建
- Hadoop集群HA高可用搭建
- 基于HA机制的Hadoop集群搭建
- 鼠标经过选项,浅色边框变成红色边框,原来的浅色竖线被覆盖;尽量但是不改变原来选项的盒子的大小的方法;如图效果
- COM学习--1.COM对象标识
- HBase体系结构(转)
- HBase Java API类介绍
- Android—ScrollView和HorizontalScrollView使用
- 搭建Hadoop HA集群
- 华为2016上机考试第一题
- 通过Java Api与HBase交互(转)
- 生命无痕
- 使用mentohust解决ubuntu下校园网无法连接
- HBase配置性能调优(转)
- POJ 1240 Pre-Post-erous! 前序+后序遍历判断树的形状的数量
- [UESTC 1256]昊昊爱运动
- Linux学习之新手必知的26 个命令