Hive做数据仓库,对Hadoop Hive 的多用户的资源分配和权限管理 (Hortonworks HDP2.2 hadoop 2.6)

来源:互联网 发布:湖南广电网络控制集团 编辑:程序博客网 时间:2024/04/29 16:03

我正在搭建一个基于Hadoop/hive的数据仓库方案。 使用的Hortonworks的HDP2.2 版本。   数据仓库主要的使用场景(use case) 是

1. 从各数据源通过ETL 将数据汇集到hadoop 和hive中。 

2. 在Hive中进行各种归集运算后,将数据结果导出到一个关系数据库中,并通过报表工具将数据展现给用户。 

3. 支持数据分析师 直接登录到Hive客户端(Hue) ,使用SQL对hive中的表进行自有查询。 


要支持需求1,2 ,我们打算使用类似Kettle 这样的ETL工具, 并配合sqoop 将数据源ETL的过程进行串联和管理。 

要支持需求3, 则需要考虑到如何让集群同时为多个用户服务则需要考虑几个方面的功能:

a. 集群计算资源的分配,

 当一个用户提交查询sql时, 集群应该自动分配给他相应的计算资源。而避免出现一个用户提交了不合理的任务,长期将集群资源全部占用的情况。 

使用yarn的capacity scheduler ,通过为不同的团队分配任务队列, 来实现控制用户间资源争抢的目的。 

b. 数据仓库中数据访问的权限管理

用户根据自己的业务需求,对不同的Hive 数据库和表有访问权限。 使用hive的sql standard based authorization ,对不同的用户分配对sql 对象(如表,数据库)的各种权限。 

c. 集群存储资源的分配

数据分析师在使用集群计算资源时,可能会生成一些临时表。 也可能将一些数据导入集群。 集群管理员可以给不同用户配置不同的存储配额,以保证集群存储资源被合理利用。 


下面我们就分别来看这三个功能如何在HDP2.2 (Hadoop 2.6) 的集群上来实现。 

使用CapacityScheduler 来分配Yarn集群计算资源

Yarn中引入了CapacityScheduler 允许管理员设置多个逻辑的queue, 每个queue 会被分配一定的资源占用比例。 例如 可以将集群分配为 default, big, small 三个队列。  按照2 , 7, 1 的比例分配集群计算资源。  用户在提交hive 任务时, 通过制定参数set mapred.job.queue.name=big  来将任务提交到不同的队列中。  

在hue中,用户可以直接在提交sql的界面上设定参数。 

考虑到 普通用户可以随意自行指定使用的队列, 仍然不能严格避免用户故意占用资源较高的队列, 造成集群资源被占用。 这时需要通过设置用户对队列的访问权限来控制。 

例如, 集群队列设置为   marketing 20%,  system 50% ,engineering 20%。   我们可以将default 队列设置的尽量小, 例如10%。 
如果普通用户不指定队列, 他的任务会提到default 队列上。 如果他主动设置参数可以提交到自己部门所属的队列上获得20%的资源。 但是如果他自己设置队列为system, 则会报错被拒绝。 
0 0
原创粉丝点击