Hbase的安装

来源:互联网 发布:人工智能英文怎么说 编辑:程序博客网 时间:2024/06/05 16:24

hbase的安装要求现有Hadoop集群。
Hadoop集群的安装见我的另一篇博客:

http://blog.csdn.net/u014762921/article/details/53006600

第一步 下载Hbase

我下载的是1.2.3版本的


第二步 解压

tar zxvf ……


第三步 替换文件

需要替换的文件如下:

./hbase-1.2.3/lib/hadoop-mapreduce-client-core-2.5.1.jar./hbase-1.2.3/lib/hadoop-yarn-server-common-2.5.1.jar./hbase-1.2.3/lib/hadoop-mapreduce-client-common-2.5.1.jar./hbase-1.2.3/lib/hadoop-common-2.5.1.jar./hbase-1.2.3/lib/hadoop-mapreduce-client-jobclient-2.5.1.jar./hbase-1.2.3/lib/hadoop-mapreduce-client-app-2.5.1.jar./hbase-1.2.3/lib/hadoop-mapreduce-client-shuffle-2.5.1.jar./hbase-1.2.3/lib/hadoop-yarn-common-2.5.1.jar./hbase-1.2.3/lib/hadoop-yarn-client-2.5.1.jar./hbase-1.2.3/lib/hadoop-yarn-api-2.5.1.jar./hbase-1.2.3/lib/hadoop-auth-2.5.1.jar./hbase-1.2.3/lib/hadoop-annotations-2.5.1.jar./hbase-1.2.3/lib/hadoop-client-2.5.1.jar./hbase-1.2.3/lib/hadoop-hdfs-2.5.1.jar

替换成Hadoop中的文件

这里提供一个脚本来进行替换

f.shfind -name "hadoop*jar" | sed 's/2.5.1/2.7.2/g' | sed 's/\.\///g' > f.logrm ./hadoop*jarcat ./f.log | while read Linedofind /home/hadoop/hadoop-2.7.2 -name "$Line" | xargs -i cp {} ./done

注意的部分如下:
1. 我的hadoop集群的版本是2.7.2,hbase里面的jar版本是2.5.1,根据你的版本号修改
2. /home/hadoop/hadoop-2.7.2是我的hadoop的目录
3. 这个文件放在hbase的lib目录下运行


第四步(修改配置文件)

1.hbase-env.sh

export JAVA_HOME=/home/java/jdk1.7.0_779export HBASE_CLASSPATH=/home/hadoop/hadoop-2.7.2/etc/hadoop export HBASE_MANAGES_ZK=false

1为 jdk的目录2位hadoop的配置文件目录3为不启用本地zookeeper,使用安装好的zookeeper集群

2.配置hbase的环境变量

Vim /etc/profileexport HBASE_HOME=/home/hbase/hbase-1.2.3export PATH=$PATH:$HBASE_HOME/bin

3.配置hbase-site.xml文件,在conf中

<configuration>    <property>        <name>hbase.rootdir</name>        <value>hdfs://hadooplee2:9000/hbase</value>    </property>    <property>        <name>hbase.cluster.distributed</name>        <value>true</value>    </property>    <property>        <name>hbase.zookeeper.property.clientPort</name>        <value>2181</value>    </property>    <property>        <name>hbase.zookeeper.quorum</name>        <value>hadooplee1,hadooplee2,hadooplee3</value>    </property>    <property>        <name>hbase.zookeeper.property.dataDir</name>        <value>/home/hbase/zookeeper</value>    </property>    <property>         <name>hbase.tmp.dir</name>         <value>/home/hbase/tmp</value>    </property>    <property>        <name>dfs.support.append</name>        <value>true</value>    </property></configuration>

这里使用的是自己zookeeper集群 ,zookeeper集群的搭建请看另一篇博客

http://blog.csdn.net/u014762921/article/details/53028399

4.新建配置好的 tmp 目录与 zookeeper数据目录

mkdir tmpmkdir zookeeper

5.配置reginserver文件(子节点)

hadooplee1hadooplee2hadooplee3

6.将hbase目录复制到其他节点,并配置好环境变量

scp –r /hbase hadooplee2:/homescp –r /hbase hadooplee3:/home

7.启动hbase

start-hbase.sh

最后一步(测试)

输入habase shell
这里写图片描述
网址:http://hadooplee3:16030/
这里写图片描述

成功!恭喜~~~

0 0