Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0安装

来源:互联网 发布:java代码去除图片水印 编辑:程序博客网 时间:2024/05/14 08:23

本文转自:http://blog.csdn.net/onepiecehuiyu/article/details/45271493

安装hadoop2.6+HA

  • 1.准备一台CentOS6.4系统

  • 2.环境CentOS6.4 共5台

机器名 ip地址 安装软件 运行进程 
master1 192.168.3.141 hadoop、Zookeeper、hbase NN、RM、DFSZKFC、journalNode、HMaster、QuorumPeerMain 
master2 192.168.3.142 hadoop、Zookeeper、hbase NN、RM、DFSZKFC、journalNode、 HRegionServer、QuorumPeerMain 
slave1 192.168.3.143 hadoop、Zookeeper、hbase DN、NM、journalNode、HRegionServer、QuorumPeerMain 
slave2 192.168.3.144 hadoop、Zookeeper、hbase DN、NM、journalNode、HRegionServer、QuorumPeerMain 
slave3 192.168.3.145 hadoop、Zookeeper、hbase DN、NM、journalNode、HRegionServer、QuorumPeerMain


  • 3.此时我们先对第一台机器做修改,其他的后期克隆该机器即可

  • 4.修改/etc/hosts文件

这里写图片描述 
修改/etc/sysconfig/network 
这里写图片描述


  • 5.重启机器

这里写图片描述 
或者 
临时修改hostname4


  • 6.安装JDK

将JDK解压5 
编辑/etc/profile 添加jdk路径 
6 
保存退出7 
修改CentOS里的java优先级 
8 
此时JDK已经安装完成 
9


  • 7.解压hadoop并修改环境变量

10


  • 8.修改配置文件

8.1 修改$HADOOP_HOME/etc/hadoop/slaves文件 
加入所有slave节点的hostname 
11 
8.2 修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh文件 
修改JAVA_HOME路径 
12 
8.3 修改$HADOOP_HOME/etc/hadoop/yarn-env.sh文件 
修改JAVA_HOME路径 
13 
8.4 修改HADOOPHOME/etc/hadoop/coresite.xml8.5HADOOP_HOME/etc/hadoop/hdfs-site.xml文件 
详见附件 
8.6 修改HADOOPHOME/etc/hadoop/mapredsite.xml8.7HADOOP_HOME/etc/hadoop/yarn-site.xml文件 
详见附件(yarn.resourcemanager.ha.id的属性值在master2机器中需要更改为rm2) 
8.8 添加$HADOOP_HOME/etc/hadoop/fairscheduler.xml文件 
详见附件 
8.9 创建相关文件夹 
根据xml配置文件,建立相应的文件夹 
14 
此时Hadoop+HA配置文件已经配好,就差ssh免密码登录+格式化Hadoop系统。 
等我们装完所有软件(Zookeeper+hbase),克隆机器后再进行ssh免密码登录及Hadoop格式化。克隆后还需要更改每个节点的/etc/sysconfig/network中的hostname,以及更改master2中$HADOOP_HOME/etc/hadoop/yarn-site.xml文件的yarn.resourcemanager.ha.id属性值为rm2

安装Zookeeper3.4.6

  • 1.解压Zookeeper

  • 2.Zookeeper环境变量的配置 
    1 
    添加Zookeeper的路径 
    2

  • 3.更改配置文件

将conf/zoo_sample.cfg改成conf/zoo.cfg 
3 
然后对zoo.cfg进行更改 
4 
5


  • 4.在DataDir路径下创建myid文件

根据配置文件的dataLogDir路径 
创建/soft/zookeeper-3.4.6/var/datalog文件夹 
6 
创建/soft/zookeeper-3.4.6/var文件夹 
再创建/soft/zookeeper-3.4.6/var/data文件夹 
再创建/soft/zookeeper-3.4.6/var/data/myid文件 
7 
向其中输入数字1 (对应zoo.cfg文件server后的数字) 
其他节点在克隆后应根据zoo.cfg中对应的值进行更改 
9


安装Hbase1.0.0

  • 1.修改本机配置(这里慎重,我修改后,重启linux,出现重复输入账户密码,我最后通过单用户登陆linux见配置文件重新修改回来了

10


  • 2.修改配置文件 
    11 
    conf/hbase-site.xml详见附件(注意hbase.rootdir的值 用ip地址表示) 
    根据conf/hbase-site.xml中hbase.tmp.dir值来创建文件夹 
    12

  • 3.创建连接 
    13

  • 4.编辑regionserver文件

14


  • 5.覆盖hbase中lib文件夹下hadoop*.jar文件

15 
(由于后期安装hbase出错,我把所有的hadoop下的jar包都导到hbase/lib下了) 
如果hbase下的lib文件夹中的zookeeper的jar包与Zookeeper中的jar包也不符,那么也需要替换。 
至此hbase也安装完了,克隆后需要做的是将集群节点的时间进行统一。


克隆机器

  • 1.此时机器克隆4份。

分别更改其ip地址。图形界面更改ip操作详情见附件。


  • 2.ssh免密码登录

2.1 更改/etc/sysconfig/network文件 
16 
2.2生成密钥 
17一路回车即可 
2.3 复制到公共密钥中 
18 
2.4 将该机器的公共密钥远程复制到想远程登录的机器中 
19 
在提示中输入yes、密码 
2.5 配置双向ssh登录。 
此时master1已经可以通过ssh登录其他机器了,接下来我们配置所有机器相互无密码登录。 
我们那其中一台机器slave3举例,其他机器(master2 slave1 slave2)都执行此操作,这里我们就不一一写明。 
把slave3密钥传到其他所有机器上。 
20 
根据提示,输入yes、密码 
在每一台机器上(master2 slave1 slave2 slave3),对其他所有机器都执行此操作。 
21 
然后在其他机器上将密钥追加到公钥文件末尾。 
22 
此时就可以双向无密钥登录了。 
我们可以查看/root/.ssh/authorized_keys文件,就能发现每台机器的密钥。 
23


  • 3.更改hadoop配置文件

更改master2中$HADOOP_HOME/etc/hadoop/yarn-site.xml文件中: 
Yarn.resourcemanager.ha.id的属性值为rm2 
24 
25


  • 4.更改Zookeeper文件

更改$ZOOKEEPER_HOME/var/data/myid文件 
26 
相应的值根据$ZOOKEEPER_HOME/conf/zoo.cfg中的id来更改 
27


  • 5.同步时间

首先我们确立master1为时间服务器,我们通过配置使其他节点自行与master1进行时间同步。 
5.1对master1时间服务器进行操作: 
检查时间服务是否安装 
28 
更改相关配置文件 
29 
30 
启动服务31 
检查master1是否和自己同步完成 
32 
5.2其他机器相对于master1进行时间同步 
当master1的时间服务器启动3-5分钟后,我们对其他节点进行与master1的时间同步。 
更改/etc/ntp.conf文件配置 
33 
将master2的/etc/ntp.conf发送到其他的机器中 
34 
在其他节点将时间服务开启 
35

5.3时间服务设置为开机启动 
分别在master1 master2 slave1 slave2 slave3执行该命令 
36 
5.4 在时间服务器上开放端口 
根据ip地址来输入命令 
37


第一次部署+启动hadoop+zookeeper+hbase

刚刚安装完hadoop需要部署,再启动。以下是第一次所需的执行,以后再启动就不需要在这么做了。

  • 1.启动Zookeeper

分别在每个机器上运行命令zkServer.sh start或者在$ZOOKEEPER_HOME/bin目录下运行./zkServer.sh start命令。然后可以通过命令jps来查看Zookeeper启动的进程QuorumPeerMain。 
1 
可通过zkServer.sh status命令来查看Zookeeper状态。正常是机器中只有一个leader,其他的都是follow 
2


  • 2.格式化ZooKeeper集群

目的是在ZooKeeper集群上建立HA的相应节点。 
在master1机器上执行命令 
3 
他会根据$HADOOP_HOME/etc/hadoop/core-site.xml文件中ha.zookeeper.quorum的值来进行初始化。

3.启动journalnode进程 
在master1节点上执行 
4 
或者在每台机器上执行 
5 
slave1 slave2 slave3 
6 
推荐第二种方法,第一种方法master1和master2的journalnode无法启动 
启动后在所有节点上多出JournalNode进程


  • 4.格式化namenode

在master1上执行命令 
7 
会在mydata文件下创建一些文件夹及文件(name或者data以及journal)


  • 5.启动namenode

在master1上执行命令 
8 
在master1上多出进程NameNode


  • 6.将刚才格式化的namenode信息同步到备用namenode上

在master2机器上执行命令 
9


  • 7.在master2上启动namenode 
    10 
    在master2上多出进程NameNode

  • 8.启动所有datanode

在master1上执行命令 
11 
执行后在datanode节点上显示的进程datanode 
12


  • 9.启动yarn

在master1上执行命令 
13 
在master1上多出ResourceManager进程,在slave1 slave2 slave3上多出NodeManager进程


  • 10.启动ZKFC

在master1和master2上启动zkfc 
14


  • 11.Hadoop启动成功

下图是两个启动后的master节点 
15 
16 
17


  • 12.启动hbase

在master1上执行命令 
18


第n次启动

  • 1.对于HA,要先启动Zookeeper

zkServer.sh start (每个节点)


  • 2.启动hadoop

start-dfs.sh start-yarn.sh (master1节点)


  • 3.启动hbase

start-hbase.sh (master1节点)


0 0
原创粉丝点击