Hive 学习笔记 (二)

来源:互联网 发布:页面加载完成后执行js 编辑:程序博客网 时间:2024/05/22 10:36

DESCRIBE EXTENDED view_logs;## 存储格式

Hive从两个维度对表的存储进行管理: row format 和 file format。 row format 指 行和一行中的字段如何存储。对于Hive来说,row format的定义由SerDe定义。

查询表时,SerDe 把文件中字节形式的数据行反序列化为Hive内部操作数据行时所使用的对象形式。执行Insert 或者CTAS 时,表的SerDe会把Hive的数据行内部表示形式序列化成字节形式并写到输出文件中。

file format 指一行中字段容器的格式。最简单的格式是纯文本文件。

文本存储

如果在创建表时没有用ROW FORMAT 或者 STORED AS,那么Hive 默认使用 文本格式存储。每行存储一个数据行,默认的行内分隔符不是制表符,是Ctrl-A(ASCII 码为1)。集合元素默认的分隔符未字符Ctrl-B,用于分割 ARRAY或STRUCT或MAP的键值对中的元素。
Hive默认使用8级分隔符。

CREATE TABLE ...ROW FORMAT DELIMITEDFIELDS TERMINATED BY '\001'COLLECTION ITEMS TERMINATED BY '\002'MAP KEYS TERMINATED BY '\003'LINES TERMINATED BY '\n'STORED AS TEXTFILE;

Hive内部使用一个名未LazySimpleSerDe的SerDe来处理这种分割符。

代码片段:

 public static SerDeParameters initSerdeParams(Configuration job,      Properties tbl, String serdeName) throws SerDeException {    SerDeParameters serdeParams = new SerDeParameters();    // Read the separators: We use 8 levels of separators by default,    // and 24 if SERIALIZATION_EXTEND_NESTING_LEVELS is set to true    // The levels possible are the set of control chars that we can use as    // special delimiters, ie they should absent in the data or escaped.    // To increase this level further, we need to stop relying    // on single control chars delimiters    serdeParams.separators = new byte[8];    serdeParams.separators[0] = getByte(tbl.getProperty(serdeConstants.FIELD_DELIM,        tbl.getProperty(serdeConstants.SERIALIZATION_FORMAT)), DefaultSeparators[0]);    serdeParams.separators[1] = getByte(tbl        .getProperty(serdeConstants.COLLECTION_DELIM), DefaultSeparators[1]);    serdeParams.separators[2] = getByte(        tbl.getProperty(serdeConstants.MAPKEY_DELIM), DefaultSeparators[2]);    String extendedNesting =        tbl.getProperty(SERIALIZATION_EXTEND_NESTING_LEVELS);    if(extendedNesting == null || !extendedNesting.equalsIgnoreCase("true")){      //use the default smaller set of separators for backward compatibility      for (int i = 3; i < serdeParams.separators.length; i++) {        serdeParams.separators[i] = (byte) (i + 1);      }    }

这个SerDe对字段的反序列化是延迟处理的,只有在访问字段时才进行反序列化。

二进制存储

使用二进制存储时,需要在创建表时 使用STORED AS声明即可,不需要声明ROW FORMAT。
二进制存储格式可以分为 面向行式存储和面向列式存储。Hive原生支持Avro datafiles 和SequenceFile这种两种行式存储。

SET hive.exec.compress.output=true;SET avro.output.codec=snappy;CREATE TABLE ... STORED AS AVRO;

Hive也以支持parquet文件,如下:

CREATE TABLE users_parquet STORED AS PARQUETASSELECT * FROM users;

自定义序列化SerDe:RegexSerDe

CREATE EXTERNAL TABLE logs (    host    STRING,    identity    STRING,    `user`    STRING,    time    STRING,    request STRING,    status  STRING,    size    STRING)ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe'WITH SERDEPROPERTIES ( "input.regex" = "([^ ]*) ([^ ]*) ([^ ]*) (-|\\[[^\\]]*\\]) ([^ \"]*|\"[^\"]*\") (-|[0-9]*) (-|[0-9]*)","output.format.string"="%1$s  %2$s  %3$s  %4$s  %5$s  %6$s  %7$s" )STORED AS TEXTFILE LOCATION '/user/hive/logs/';

在ROW FORMAT子句中使用DELIMITED关键字表明文本是如何分隔的。在上面的例子中,用SERDE关键字 指明使用拿个SerDe。

SerDe 可以用WITH SERDEPROPERTIES子句设置额外的属性。input.regex是在反序列化期间将要使用的正则表达式模式,用来将数据行(ROW)中的部分文本转换为列的集合。
从文件中检索数据时,反序列化会调用SerDe,从而使每一行的字段都能被正确解析出来。

HiveQL

导入

insert

INSERT OVERWRITE TABLE targetSELECT col1, col2FROM source;

对于分区表,可以使用 PARTITION子句指明数据要插入哪个分区。

INSERT OVERWRITE TABLE targetPARTITION (dt='2001-01-01')SELECT col1, col2FROM source;

OVERWRITE 关键字表示原来的内容会被后来要插入的数据替换掉。如果要添加记录,使用INSERT INTO TABLE。

如果要动态指明分区:

INSERT OVERWRITE TABLE targetPARTITION (dt)SELECT col1, col2, dtFROM source;

Multitable insert

在HiveQL中,可以把INSERT语句倒过来,FROM子句放在前面,查询效果是一样的。

FROM logs_ext seINSERT INTO TABLE  logs_staticPARTITION (year = '2014' , month = '6' , day = '21')select ip,status WHERE year=2014 AND month=6 AND day=21INSERT INTO TABLE  logs_staticPARTITION (year = '2014' , month = '6' , day = '22')select ip,status WHERE year=2014 AND month=6 AND day=22INSERT INTO TABLE  logs_staticPARTITION (year = '2014' , month = '6' , day = '23')select ip,status WHERE year=2014 AND month=6 AND day=23;

多表插入方法比使用单独的INSERT语句效率更高,因为只需要扫描一遍源表旧可以生成多个不相交的输出。

CREATE TABLE…AS SELECT

CREATE TABLE targetASSELECT col1, col2FROM source;

CTAS操作是原子的,所以如果SELECT查询失败,新表就不会被创建。

alert table

由于HIve使用 “读时模式”,所以在创建表以后,支持对表定义的修改。

例如,重命名表:

ALTER TABLE source RENAME TO target;

在更新表的元数据以外,Hive还把表的目录移动到新名称对应的目录下。
Hive允许修改列的定义,添加新的列,甚至用一组新的列替换表内已有的列。

ALTER TABLE target ADD COLUMNS (col3 STRING);

新的列col3 添加在已有的列的后。数据文件并没有更新,因此查询会未col3的所以的值返回 NULL。

drop table

DROP TABLE 语句用于删除表的数据和元数据。如果是外部表,就只删除元数据。
如果要删除表内的数据,保留表的定义,使用TRUNCATE。

TRUNCATE TABLE my_table;

查询

排序和聚集

在HIve中可以使用ORDER BY 语句对数据进行排序。但是ORDER BY能够语气产生排序的结果是通过一个reducer来做到的。对于大规模的数据集,它的效率非常低。

在很多情况下,并不需要结果是全局排序的。此时可以换用Hive的非标准的扩展SORT BY。SORT BY 为每个reducer产生一个排序文件。

在某些情况下,需要控制某个特定的行应该到哪个reducer,其目的通常是为了进行后续的聚集操作。这是 DISTRIBUTE BY所做的。

FROM logs_extSELECT ip , status , dayDISTRIBUTE BY daySORT BY day ASC,status DESC;

结果:

127.0.0.1   500 21127.0.0.1   400 21127.0.0.1   300 21127.0.0.1   210 22127.0.0.1   200 22127.0.0.1   100 23

joins

和直接使用mapreduce相比,使用Hive的一个好处在于Hive简化了常用操作。

inner join

举例说明:

可以像sql中使用内连接:

select users.*, things.*FROM users join things on (users.id = things.id);

结果:

1   john    1   Tie2   jean    2   Coat3   joe 3   Scarf4   kay 4   Hat5   kay 5   Coat6   nat 6   Scarf7   ann 7   Coat

EXPLAIN可以输出很多查询执行集合的详细信息。如果要查看更加详细的信息,可以使用EXPLAIN EXTENDED。

EXPLAINSELECT sales.*, things.*FROM sales JOIN things ON (sales.id = things.id);
outer join
select users.*, things.*FROM users LEFT OUTER JOIN things on (users.id = things.id);

Hive也支持右连接

select users.*, things.*FROM users RIGHT OUTER JOIN things on (users.id = things.id);

全连接

select users.*, things.*FROM users FULL OUTER JOIN things on (users.id = things.id);

半连接:

select * from things left semi join users on (users.id = things.id);

结果:

1   Tie2   Coat3   Scarf4   Hat5   Coat6   Scarf7   Coat

子查询

Hive对子查询支持优先,只允许子查询出现在SELECT语句的FROM子句中。

SELECT station, year, AVG(max_temperature)FROM (SELECT station, year, MAX(temperature) AS max_temperatureFROM records2WHERE temperature != 9999 AND quality IN (0, 1, 4, 5, 9)GROUP BY station, year) mtGROUP BY station, year;

视图

在Hive中,创建视图时并不把视图 “物化”存储到磁盘上。相反,视图的SELECT语句只是在执行引用视图的语句时才执行。

CREATE VIEW view_logsASselect * from logs_static where day = 21;

创建视图时并不执行查询。SHOW TABLES 命令可以查看到视图。DESCRIBE EXTENDED view_logs 可以查看视图的详细信息。

0 0
原创粉丝点击