[Hive]客户端几种数据导入方式

来源:互联网 发布:知乎药丸 编辑:程序博客网 时间:2024/05/29 11:37

根据导入的地方不一样,主要介绍下面几种方式:

(1)从本地文件系统中导入数据到Hive表;

(2)从HDFS上导入数据到Hive表;

(3)从别的表中查询出相应的数据并导入到Hive表中;


1. 本地文件系统导入Hive表中
1.1 导入普通Hive表

1.1.1 创建普通Hive表

  1. CREATE TABLE IF NOT EXISTS order_uid_total(uid string, bucket_type string, file_name string)
  2. ROW FORMAT DELIMITED
  3. FIELDS TERMINATED BY '\t'
  4. LINES TERMINATED BY '\n'
  5. STORED AS TEXTFILE;

1.1.2 导入数据

  1. load data local inpath '/home/xiaosi/adv/order_uid_total.txt' into table order_uid_total;

1.1.3 查看数据

  1. hive (test)> select * from order_uid_total where bucket_type = 'put' limit 10;
  2. OK
  3. 868putuids.3_1
  4. 865putuids.3_1
  5. DC8putuids.3_1
  6. 861putuids.3_1
  7. 867putuids.3_1
  8. 861putuids.3_1
  9. 868putuids.3_1
  10. 867putuids.3_1
  11. 867putuids.3_1
  12. A00putuids.3_1


1.2 导入分区Hive表

1.2.1 创建分区表

  1. CREATE TABLE IF NOT EXISTS order_uid_total_partition(uid string)
  2. PARTITIONED BY(bucket_type string, file_name string)
  3. ROW FORMAT DELIMITED
  4. FIELDS TERMINATED BY '\t'
  5. LINES TERMINATED BY '\n'
  6. STORED AS TEXTFILE;

1.2.2 静态导入数据

  1. load data local inpath '/home/xiaosi/adv/order_uid_total_partition.txt' into table order_uid_total_partition partition(bucket_type='put',file_name='uids_3_1');

1.2.3 动态导入数据

如果表中有多个分区,按上面插入语句会要写很多的SQL,而且查询语句要对应上不同的分区,这样就插入语句用起来就会很繁琐。为了解决这个问题,Hive中提供了动态分区插入的功能,它能跟分区字段的内容自动创建分区,并在每个分区插入相应的内容。

SELECT语句中要包含分区字段:

  1. insert overwrite table order_uid_total_partition
  2. partition (bucket_type, file_name)
  3. select uid, bucket_type, file_name from order_uid_total;

如果直接运行上面代码,会报如下错误:

  1. FAILED: SemanticException [Error 10096]: Dynamic partition strict mode requires at least one static partition column. To turn this off set hive.exec.dynamic.partition.mode=nonstrict

从上面错误提示中,我们知道我们需要设置分区模式:

  1. set hive.exec.dynamic.partition.mode=nonstrict;

再次导入数据即可。


2. HDFS上导入数据到Hive表

从本地文件系统中将数据导入到Hive表的过程中,其实是先将数据临时复制到HDFS的一个目录下,然后再将数据从那个临时目录下移动到对应的Hive表的数据目录里面。因此,我们可以直接从HDFS上的一个目录移动到相应Hive表的数据目录下,假设有下面这个文件data/order_uid_total.txt,具体的操作如下:

  1. load data inpath 'data/order_uid_total.txt' overwrite into table order_uid_total;

相对比于本地文件导入Hive表中,唯一的区别就是少了一个local关键词。local表示文件位于本地文件系统上,如果没有local关键词,表示文件位于HDFS上。


3. 从别的表中查询出相应的数据导入到Hive表中
3.1 普通Hive表

创建普通Hive表

  1. CREATE TABLE IF NOT EXISTS order_uid_total(uid string, bucket_type string, file_name string)
  2. ROW FORMAT DELIMITED
  3. FIELDS TERMINATED BY '\t'
  4. LINES TERMINATED BY '\n'
  5. STORED AS TEXTFILE;
查询数据导入Hive表中
  1. insert overwrite table order_uid_total
  2. select uid, bucket_type, file_name from order_uid_total_partition;


3.2 分区Hive表

创建分区Hive表

  1. CREATE TABLE IF NOT EXISTS order_uid_total_partition(uid string)
  2. PARTITIONED BY(bucket_type string, file_name string)
  3. ROW FORMAT DELIMITED
  4. FIELDS TERMINATED BY '\t'
  5. LINES TERMINATED BY '\n'
  6. STORED AS TEXTFILE;

查询数据导入Hive表中

  1. insert overwrite table order_uid_total_partition
  2. partition (bucket_type, file_name)
  3. select uid, bucket_type, file_name from order_uid_total;





1 0
原创粉丝点击