从零搭建Hadoop集群 五

来源:互联网 发布:闪烁之光细剑淘宝 编辑:程序博客网 时间:2024/04/30 08:56

本篇介绍安装HBASE,具体怎么跟Hadoop一起玩不做介绍,因为我也不会>_<,怎么在Hadoop里写Java代码操作Hbase还需要继续研究,搞完HBASE就剩下安装Spark了。

下载

先去下载个当前的稳定版HBASE 1.2.6,注意不要和我一样犯傻下载了src,倒腾了半天发现总是说缺少库,除非您有兴趣重新编译一遍HBASE。
download

安装

将压缩包拷贝到bigdata-master,解压:

tar -zxvf hbase-1.2.6-bin.tar.gz

修改 /etc/profile, 在文件末尾增加如下环境变量,让hbase知道当前Hadoop安装位置,修改完后记得source一下令其生效:
env

进入hbase的解压后的目录 conf,修改hbase-env.sh ,在其中配置:
JAVA_HOME: java的环境变量
HBASE_MANAGES: 如果设置为true,表示使用HBASE自带的zookeeper,如果是false,就自行安装zookeeper吧。。。。hbase是用zookeeper来进行部署的。
env

编辑hbase-site.xml:
rootdir定位到hadoop下。
distributed设置为true(hbase分为单机,伪分布式,完全分布式,目测老师教我们的是完全分布式>_<)。
quorum填入所有的子机的IP。
dataDir必须存在,据说是快照的存储位置。
其他参数有兴趣可以参考这里,总之我是没啥兴趣>_<。

<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration>  <property>    <name>hbase.rootdir</name>    <value>hdfs://192.168.245.128:9000/hbase</value>    <description>The directory sharedbyRegionServers.</description>   </property>  <property>    <name>hbase.cluster.distributed</name>    <value>true</value>  </property>  <property>    <name>hbase.zookeeper.quorum</name>    <value>192.168.245.129,192.168.245.130</value>  </property>  <property>    <name>hbase.zookeeper.property.dataDir</name>    <value>/hbasedata</value>    <description>Property fromZooKeeper s config zoo.cfg.  The directory where the snapshot isstored.</description>  </property></configuration>   

编辑regionservers,把自己的ip地址都填进去即可:
regionservers

配置完成,大功告成。

这时需要将主机上配置完成的hbase整个都拷贝到子机上:
scp

启动

切换到hbase的bin目录下,执行启动的脚本:

./start-hbase.sh

启动完成后,进入hbase的shell看看是否一切正常:

./hbase shell

进去后就可以用list查看表,create创建表了。具体的还是百度吧,不凑字数了。

老师还讲了HIVE,但是实在懒得想是怎么配置的了。。。。

原创粉丝点击