hive merge file
来源:互联网 发布:查看linux cpu核数 编辑:程序博客网 时间:2024/06/01 11:23
当Hive输入由很多个小文件组成,由于每个小文件都会启动一个map任务,如果文件过小,以至于map任务启动和初始化的时间大于逻辑处理的时间,会造成资源浪费,甚至OOM。
为此,当我们启动一个任务,发现输入数据量小但任务数量多时,需要注意在Map前端进行输入合并
当然,在我们向一个表写数据时,也需要注意输出文件大小
1. Map输入合并小文件
对应参数:
set mapred.max.split.size=256000000; #每个Map最大输入大小
set mapred.min.split.size.per.node=100000000; #一个节点上split的至少的大小
set mapred.min.split.size.per.rack=100000000; #一个交换机下split的至少的大小
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; #执行Map前进行小文件合并
在开启了org.apache.hadoop.hive.ql.io.CombineHiveInputFormat后,一个data node节点上多个小文件会进行合并,合并文件数由mapred.max.split.size限制的大小决定。
mapred.min.split.size.per.node决定了多个data node上的文件是否需要合并~
mapred.min.split.size.per.rack决定了多个交换机上的文件是否需要合并~
2.输出合并
set hive.merge.mapfiles = true #在Map-only的任务结束时合并小文件
set hive.merge.mapredfiles = true #在Map-Reduce的任务结束时合并小文件
set hive.merge.size.per.task = 256*1000*1000 #合并文件的大小
set hive.merge.smallfiles.avgsize=16000000 #当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
- hive merge file
- hive merge小文件
- hive merge小文件
- hive merge小文件
- hive merge小文件
- hive merge小文件
- hive merge小文件
- hive:orc file
- Script to merge configuration file
- hive查询导出到hdfs,hive,file
- Hive Sort Merge Bucket Map Join
- Hive merge(小文件合并)
- hive 小文件的合并 hive.merge.mapredfiles
- LaTex-merge pdfs into one file
- Hive:ORC File Format存储格式详解
- 使用sqoop --options-file 导入hive数据
- Hive:ORC File Format存储格式详解
- 使用sqoop --options-file 导入hive数据
- Android布局编写示例【慢慢更新】
- java Map及Map.Entry详解
- Hibernate操作CLOB字段
- 一段汇编代码的分析
- linux stable kernel development
- hive merge file
- 浅谈 js中parseInt函数的解析
- Samy worms致使MySpace一天关闭的XSS攻击
- 第三方JAR无法关联源码
- 关于大端与小端的思考
- php高级应用之进程控制及进程间通讯
- Addressing pointers
- Active-X学习笔记
- js 运动框架