mapreduce图示原理深入详解,几张图搞定

来源:互联网 发布:拉卡拉淘宝 编辑:程序博客网 时间:2024/05/02 01:36
1. MAPREDUCE原理篇
Mapreduce是一个分布式运算程序的编程框架是用户开发“基于hadoop的数据分析应用”的核心框架;
Mapreduce核心功能将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上;
1.1 为什么要MAPREDUCE
1)海量数据在单机上处理因为硬件资源限制,无法胜任
2)而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度
3)引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理
设想一个海量数据场景下的wordcount需求:

单机版:内存受限,磁盘受限,运算能力受限
分布式:
  1. 文件分布式存储(HDFS
  2. 运算逻辑需要至少分成2个阶段(一个阶段独立并发,一个阶段汇聚)
  3. 运算程序如何分发
  4. 程序如何分配运算任务(切片)
  5. 两阶段的程序如何启动?如何协调?
  6. 整个程序运行过程中的监控?容错?重试?

可见在程序由单机版扩成分布式时,会引入大量的复杂工作。为了提高开发效率,可以将分布式程序中的公共功能封装成框架,让开发人员可以将精力集中于业务逻辑。
mapreduce就是这样一个分布式程序的通用框架,其应对以上问题的整体结构如下:
  1. MRAppMaster(mapreduce application master)
  2. MapTask
  3. ReduceTask

1.2MapReduce的框架思想 图片看不清可以下载到本地查看)


1.2 MAPREDUCE框架结构及核心运行机制
1.2.1结构
一个完整的mapreduce程序在分布式运行时有三类实例进程:
1MRAppMaster:负责整个程序的过程调度及状态协调
2mapTask:负责map阶段的整个数据处理流程
3ReduceTask:负责reduce阶段的整个数据处理流程
1.2.2 MR程序运行流程
1.2.2.1流程示意图(图片看不清可以下载到本地查看)

1.2.2.2流程解析
  1. 一个mr程序启动的时候,最先启动的是MRAppMasterMRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程
  1. maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:
    1. 利用客户指定的inputformat来获取RecordReader读取数据,形成输入KV
    2. 将输入KV对传递给客户定义的map()方法,做逻辑运算,并将map()方法输出的KV对收集到缓存
    3. 将缓存中的KV对按照K分区排序后不断溢写到磁盘文件
  2. MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)
  3. Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同keyKV为一个组,调用客户定义的reduce()方法进行逻辑运算,并收集运算输出的结果KV,然后调用客户指定的outputformat将结果数据输出到外部存储

3.MR核心数据处理全过程(包括shuffle)(图片看不清可以下载到本地查看)


 1)mapreduce中,map阶段处理的数据如何传递给reduce阶段,是mapreduce框架中最关键的一个流程,这个流程就叫shuffle
2shuffle:洗牌、发牌(核心机制:数据分区、排序、缓存);
3)具体来说:就是将maptask输出的处理结果数据,分发给reducetask,并在分发的过程中,对数据按key进行了分区和排序(默认也会分区,排序)。
 

上面的流程是整个mapreduce最全工作流程,具体shuffle过程详解,如下:
1maptask收集我们的map()方法输出的kv对,放到内存缓冲区中
2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
3)多个溢出文件会被合并成大的溢出文件
4)在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序
5reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据
6reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
7)合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)
3)注意
Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。
缓冲区的大小可以通过参数调整,参数:io.sort.mb 默认100M





原创粉丝点击