Mapreduce切片机制

来源:互联网 发布:网络斯诺克游戏 编辑:程序博客网 时间:2024/06/05 14:29

为什么:

一个文件比如由200MB,存储再HDFS上,又按HDFS默认块大小128MB进行切块(block)存储,且每个块(block)备份3份,那么这个文件将被切成2块存储到HDFS上。mapreduce程序相当于HDFS的客户端,每个节点上的mapreduceHDFS拿数据时,如果没有规划好切片大小,导致节点上程序运行,需要从其他节点上拿数据,那么必然经过网络传输,会消耗网络资源,速度慢,那么这样显然不好,所以要好好规划切片。

 

《Mapreduce&yarn工作机制


切片机制原理:

客户端根据用户所配置的minsizemaxsize来规划切片,客户端提交任务后,客户端程序就会调用hdfs的方法,判断需要处理的文件大小,然后再根据用户配置的参数minsizemaxsize,参数解释:

minsize:默认值:1  

   配置参数: mapreduce.input.fileinputformat.split.minsize    

maxsize:默认值:Long.MAXValue  

    配置参数:mapreduce.input.fileinputformat.split.maxsize

blocksize

通过逻辑splitSize = Math.max(minSize, Math.min(maxSize, blockSize))确定切片的大小。

拿到参数后,就按照splitSize对文件进行切割。通过逻辑splitSize = Math.max(minSize, Math.min(maxSize, blockSize))确定切片的大小。

注意:这里由一段逻辑:

while (((double) bytesRemaining)/splitSize > SPLIT_SLOP) {     int blkIndex = getBlockIndex(blkLocations, length-bytesRemaining);     splits.add(makeSplit(path, length-bytesRemaining, splitSize,blkLocations[blkIndex].getHosts(),                  blkLocations[blkIndex].getCachedHosts()));     bytesRemaining -= splitSize;}

解释:SPLIT_SLOP = 1.1,即当划分后剩余文件大小除splitSize大于1.1时,循环继续,小于1.1时退出循环,将剩下的文件大小归到一个切片上去。