HAWQ适应场景总结

来源:互联网 发布:非诚勿扰程序员专场 编辑:程序博客网 时间:2024/06/14 23:10

个人研究了近半个月的hawq,也做个模拟测试,推荐学习资料链接(比较完整):http://blog.csdn.net/wzy0623

大概从一到十八篇文章,这是第一篇:http://blog.csdn.net/wzy0623/article/details/55047696


最后总结如下:

1、OLAP(联机分析处理(On-Line Analytical Processing)领域,请选择HAWQ

原因:HAWQHiveImpala性能相比,标准化TPCDS性能测试要快数倍。而且HiveImpala支持SQL标准有限,很多TPCDS查询执行不了。

(注明:aHAWQ官网宣传的TPCDS性能测试比较图,平均比Hive4-50倍,比Impala4.55倍,因未列出软硬件环境、数据模型和数据量,个人觉得这点真实性有待验证,觉得可能是某些sql查询上比Impala有优势,并非全部。

b、在99 个标准的TPC-DS queries测试中,Impala能完成62个,Hive完成60个,HAWQ能全部完成)

 

2、OLTP(联机事务处理(on-line transaction processing))领域,官网团队不推荐使用。

原因:hawq是针对OLAP进行优化的,是一个偏分析型的数据库,本质上更像一个query engine。此领域个人推荐TiDB,是一个可以用来做 OLTP的分布式关系型数据库,擅长海量并发的查询和事务写入(毫秒级别)

 

3、如有整合外部数据需求,推荐使用HAWQPXF模块)

原因:能提供了访问HDFS上的Json文件、HiveHBase外部数据的能力

 

4、如有过程语言编程需求(特别是习惯了编写存储过程的DBA人员),推荐使用HAWQ

原因:HAWQ使用过的SQL-on-Hadoop解决方案中唯一支持过程化编程的编写UDF的语言可以是SQLCJavaPerlPythonRpgSQLHiveSparkSQLImpala都没有此功能。

 

5、 HAWQ构建数据仓库比传统数仓有什么优势?

答复:

a、ETL数据经过抽取、转换和装载(ETL)过程进入数据仓库系统,而HAWQ可以直接Register表当原生的内部表使用,省去了数据ETL的工作HAWQHadoop中支持AVROParquet和本地HDFS文件格式。这在最大程度上减少了数据摄取期间对ETL的需求

b、深度分析:SQL需要的统计分析,因为它100%符合ANSI SQL规范,支持包含关联子查询、窗口函数、汇总与数据库、广泛的标量函数与聚合函数的功能。

c器学习:(支持开源MADLib机器学习库,如数据挖掘中的常用的矩阵、向量、聚类、回归、决策树等)

 

6、有关集群规模和数据性能

答复:官网用来测试的数据规模:30T20个节点进行测试的;

1、线性可扩展:Hawq 2.0系统能够支持的并发查询数量,跟集群的计算节点数量呈线性关系:计算节点越多,系统能够支持的并发查询数量越多。为PBSQL on Hadoop操作专门设计。

2、可弹性执行查询引擎和动态按需扩容。

使用tcp协议则hawq不能超过1000segment节点,默认使用udp协议无此限制;能够快速为涉及超过50个关联表的高要求查询找到理想查询计划,可秒级添加节点。

 

7、比其他类似产品还有哪些主要特性?

答复:个人用到觉得可能重要的特性:

a、支持分区和多级分区;。分区表对性能有很大帮助,比如你只想访问最近一个月的数据,查询只需要扫描最近一个月数据所在分区

b支持多种压缩方法:snappygzipquicklzRLE等。

c、资源管理可以与外部资源管理器YARN集成


原创粉丝点击