Hadoop学习之HBase入门
来源:互联网 发布:ftp服务器端口默认为 编辑:程序博客网 时间:2024/05/02 04:57
Hadoop学习之HBase入门
HBase是Apache Hadoop的子项目,HBase的最基本存储基础单元是HDFS,并通过使用Hadoop的FDS工具可以查看这些数据以及结构,还可以通过Map/Reduce或者Yarn(算法)对HBase进行操作。
- 1.HBase安装
- 2.HBase存储的基本结构
- 3.HBase的常用命令
- 4.HBase的优化
- 5.HBase的压力分载与失效转发
HBase的安装
本文对于HBase的安装是在Centos-7下进行。
- 官网下载HBase稳定安装包
- 解压安装包,并配置hbase-site.xml文件如下:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>file:///home/testuser/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/testuser/zookeeper</value>
</property>
</configuration>- 启动bin/start-hbase.sh
- 连接hbase,命令bin/hbase shell。安装成功
HBase存储的基本结构
在HBase中创建的一张表可以分布在多个Hregion上,每个Hregion可以保存一张表中某段连续的数据,用户创建的大表中的Hregion块是由Hregion服务器提供维护,访问Hregion块需要通过Hregion服务器,一个Hregion块对应一个Hregion服务器。Hregion在物理上可以分为Hmemcache(缓存)、Hlog(日志)、HStore(持久层)。
1. HRegionServer、HRegion、Hmemcache、Hlog、HStore之间的关系,如图所示:
HBase表中的数据与HRegionServer的分布关系,如图所示:
HBase读写数据:
HBase读数据优先读取Hmemcache里的内容,如果未读取到再去取HStore里的数据,从而提高数据读取性能。
HBase写数据首先写到Hmemcache和Hlog中,Hmemcache存放缓存,Hlog同步Hmemcache与HStore的事务日志,发起Flush Cache,数据持久化到HStore中,并清空Hmemcache。- 可以把HBase的数据结构看成一个key/value的体系,HBase的区域是由表名与行界定。在HBase区域每一个“列簇”都有一个HStore的对象管理,每一个HStore由一个或多个MapFiles组成。HBase将Table水平方向分成N个Region,Region按column family分成Store,每个Store包括内存是的memstore和持久化到disk上的HFile.
HBase的常用命令
- 进入hbase shell console
$HBASE_HOME/bin/hbase shell
如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户
hbase(main)> whoami 表的管理
查看有哪些表
hbase(main)> list创建表
语法:create <table>, {NAME => , VERSIONS => <VERSIONS>}
例如:创建表t1,有两个family name:f1,f2,且版本数均为2
hbase(main)> create ‘t1’,{NAME => ‘f1’, VERSIONS => 2},{NAME => ‘f2’, VERSIONS => 2}删除表
分两步:首先disable,然后drop
例如:删除表t1
hbase(main)> disable ‘t1’
hbase(main)> drop ‘t1’查看表的结构
语法:describe <table>
例如:查看表t1的结构
hbase(main)> describe ‘t1’修改表结构
修改表结构必须先disable
语法:alter ‘t1’, {NAME => ‘f1’}, {NAME => ‘f2’, METHOD => ‘delete’}
例如:修改表test1的cf的TTL为180天
hbase(main)> disable ‘test1’
hbase(main)> alter ‘test1’,{NAME=>’body’,TTL=>’15552000’},{NAME=>’meta’, TTL=>’15552000’}
hbase(main)> enable ‘test1’
- 权限管理
- 分配权限
语法 : grant <user> <permissions> <table> <column family> <column qualifier> 参数后面用逗号分隔
权限用五个字母表示: “RWXCA”.
READ(‘R’), WRITE(‘W’), EXEC(‘X’), CREATE(‘C’), ADMIN(‘A’)
例如,给用户‘test’分配对表t1有读写的权限,
hbase(main)> grant ‘test’,’RW’,’t1’ - 查看权限
语法:user_permission
例如,查看表t1的权限列表
hbase(main)> user_permission ‘t1’ - 收回权限
与分配权限类似,语法:revoke <user> <table> <column family> <column qualifier>
例如,收回test用户在表t1上的权限
hbase(main)> revoke ‘test’,’t1’
- 分配权限
- 表数据的增删改查
- 添加数据
语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
hbase(main)> put ‘t1’,’rowkey001’,’f1:col1’,’value01’
用法比较单一。 - 查询数据
a)查询某行记录
语法:get <table>,<rowkey>,[<family:column>,….]
例如:查询表t1,rowkey001中的f1下的col1的值
hbase(main)> get ‘t1’,’rowkey001’, ‘f1:col1’
或者:
hbase(main)> get ‘t1’,’rowkey001’, {COLUMN=>’f1:col1’}
查询表t1,rowke002中的f1下的所有列值
hbase(main)> get ‘t1’,’rowkey001’
b)扫描表
语法:scan , {COLUMNS => [ ,…. ], LIMIT => num}
另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能
例如:扫描表t1的前5条数据
hbase(main)> scan ‘t1’,{LIMIT=>5}
c)查询表中的数据行数
语法:count , {INTERVAL => intervalNum, CACHE => cacheNum}
INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度 例如,查询表t1中的行数,每100条显示一次,缓存区为500
hbase(main)> count ‘t1’, {INTERVAL => 100, CACHE => 500} - 删除数据
a )删除行中的某个列值
语法:delete <table>, <rowkey>, <family:column> , <timestamp>,必须指定列名
例如:删除表t1,rowkey001中的f1:col1的数据
hbase(main)> delete ‘t1’,’rowkey001’,’f1:col1’
注:将删除改行f1:col1列所有版本的数据
b )删除行
语法:deleteall <table>, <rowkey>, <family:column> , <timestamp>,可以不指定列名,删除整行数据
例如:删除表t1,rowk001的数据
hbase(main)> deleteall ‘t1’,’rowkey001’
c)删除表中的所有数据
语法: truncate <table>
其具体过程是:disable table -> drop table -> create table
例如:删除表t1的所有数据
hbase(main)> truncate ‘t1’
- 添加数据
- Region管理
- 移动region
语法:move ‘encodeRegionName’, ‘ServerName’
encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表
示例
hbase(main)>move ‘4343995a58be8e5bbc739af1e91cd72d’, ‘db-41.xxx.xxx.org,60020,1390274516739’ - 开启/关闭region
语法:balance_switch true|false
hbase(main)> balance_switch - 手动split
语法:split ‘regionName’, ‘splitKey’ - 手动触发major compaction
语法:
Compact all regions in a table:
hbase> major_compact ‘t1’
Compact an entire region:
hbase> major_compact ‘r1’
Compact a single column family within a region:
hbase> major_compact ‘r1’, ‘c1’
Compact a single column family within a table:
hbase> major_compact ‘t1’, ‘c1’
- 移动region
- 配置管理及节点重启
- 修改hdfs配置
hdfs配置位置:/etc/hadoop/conf
同步hdfs配置
cat /home/hadoop/slaves|xargs -i -t scp /etc/hadoop/conf/hdfs-site.xml hadoop@{}:/etc/hadoop/conf/hdfs-site.xml
关闭:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} “sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh –config /etc/hadoop/conf stop datanode”
启动:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} “sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh –config /etc/hadoop/conf start datanode” - 修改hbase配置
hbase配置位置:
同步hbase配置
cat /home/hadoop/hbase/conf/regionservers|xargs -i -t scp /home/hadoop/hbase/conf/hbase-site.xml hadoop@{}:/home/hadoop/hbase/conf/hbase-site.xml
graceful重启
cd ~/hbase
bin/graceful_stop.sh –restart –reload –debug inspurXXX.xxx.xxx.org
- 修改hdfs配置
HBase压力分载与失效转发
先来看一下一些组件的解释吧
HBaseMaster
HBaseMaster负责给HRegionServer分配区域,并且对集群环境中的HRegionServer进行负载均衡,HBaseMaster还负责监控集群中的HRegionServer的运行状况,如果某一台HRegionServer down机,HBaseMaster还将会把不可用的HRegionServer 来提供服务的HLog和表进行重新分配转交给其他HRegionServer来提供,HBaseMaster还负责对数据和表进行管理,处理表结构和表中数据变更,因为在META系统中存储了所有的相关表信息,并且HBaseMaster实现了zookeeper的Watcher接口可以和zookeeper交互。
HRegionServer
HRegionServer负责处理用户读和写的操作,HRegionServer通过与HBaseMaster通信获取自己需要服务的数据表,并向HBaseMaster反馈自己的状况。当一个写的请求到来的时候,它首先会写到一个叫做HLog的write-ahead log中,HLog被缓存在内存中,被称为Memcache,每一个HStore只能有一个Memcache,当Memcache到达配置的大小后,将会创建一个MapFile,将其写到磁盘中。这将减少HRegionServer的内存压力,当一起读取的请求到来的时候,HRegionServer会现在Memcache中找数据,当找不到的时候才会去MapFile找。
HBase Client
HBase Client负责寻找提供需求数据的HRegionServer,在这个过程中,HBase Client首先将和HBaseMaster通信,找到ROOT区域,这个操作是HBase Client与HBaseMaster仅有的通信操作。当定位到提供数据的HReginServer以后,Client就可以通过这个HReginServer找到需要的数据了。这些信息将会被Client缓存起来,当下次请求的时候,就不需要走上面的这个流程了。
HBase服务接口
HBase Thrift Server和HBase REST Server是通过非Java程序对HBase进行访问的一种途径。
HBase集群环境中HBaseMaster只有失效转发没有压力分载的功能,而HRegionServer既有失效转发也有压力分载的功能。虽然说在整个集群环境中只有一个HBaseMaster,但是在集群环境中可以启动多个HBaseMaster,但是真正用到的只有一个HBaseMaster Server,它不down掉的情况下,其他HBaseMaster并不会工作,直到zookeeper服务器判断与当前运行的HBaseMaster通讯超时,认为这台HBaseMaster down掉了,zookeeper才会去连接下一台HBaseMaster。
简单来说,如果运行中的HBaseMaster服务器down掉,那么zookeeper会从列表中选择下一个HBaseMaster服务器进行访问,让它接管down掉的HBaseMaster的任务,换言之,用Java客户端对HBase进行操作是通过zookeeper的,也就是说zookeeper的节点全挂掉了,那么HBase集群也挂了,HBase本身不存储任何数据,真正的数据是保存在HDFS上,HDFS文件系统挂了,HBase也挂。
- Hadoop学习之HBase入门
- Hadoop HBase入门学习
- Hadoop学习之HBase
- Hadoop学习之HBase
- hadoop之hbase学习
- Hadoop之HBase快速入门
- hadoop学习之Hbase安装
- Hadoop之HBase入门【官方文档翻译】
- 【Hadoop入门学习系列之六】HBase基本架构、编程模型和应用案例
- hadoop学习笔记之操作hbase
- Hadoop学习笔记之HBase安装
- Hadoop学习笔记之HBase应用场景
- Hadoop学习笔记之初始HBase
- 【Hadoop】HBase框架学习之路
- hadoop学习笔记之Hbase安装
- hadoop学习笔记之hbase原理
- hadoop+hive+hbase入门
- hadoop入门之wordcount学习
- 当Culture遇上DateTimeFormat
- 面向对象程序设计(1)-OOP概述
- 实现一个Unity3d的WaitForSeconds
- HDU 1232 畅通工程
- 全世界只有我们Erlang程序员是正确的
- Hadoop学习之HBase入门
- ProtoBuf在Unity3D中的简单使用!
- POJ 3669 小坑
- ActiveMQ——消息队列基础篇
- c++ map
- openssl基本原理 + 生成证书 + 使用实例
- 汉信码生成和识别SDK
- PAT L3-012 水果忍者
- iOS进阶之编写弹性动画