HDFS架构设计和MapReduce2架构设计

来源:互联网 发布:久其软件 亦庄 编辑:程序博客网 时间:2024/06/06 00:20

HDFS架构设计

这里写图片描述
NameNode:
存储:文件系统的命名空间,文件名称,文件目录结构,文件的属性(权限 创建时间 副本数),文件对应哪些数据块 –> 这些数据块对应哪些DataNode节点上。
不会持久化存储这个映射关系,是通过集群的启动和运行时,DataNode定期发送blockReport给NameNode,以此NameNode在【内存】中动态维护这种映射关系
作用:管理文件系统的命名空间。它维护着文件系统树及整棵树内所有的文件和目录。
这些信息以两个文件形式永久保存在本地磁盘上:命名空间镜像文件fsimage和编辑日志文件editlog。
DataNode:
存储:数据块和数据块校验和
与Namenode通信:每隔3秒发送一个心跳包,每十次心跳发送一次blockReport
作用(主要):读写文件的数据块
Scondary NameNode
这里写图片描述
存储:命名空间镜像文件fsimage 和 编辑日志editlog
作用:定期合并fsimage+editlog文件为新的fsimage推送给namenode.俗称检查点动作,checkpoint.
副本放置策略
这里写图片描述
第一副本:放置在上传文件的DataNode上;如果是集群外提交,则随机挑选一台磁盘不太慢、CPU不太忙的节点上
第二副本:放置在与第一个副本不同的机架的节点上
第三副本:与第二个副本相同机架的不同节点上
如果还有更多的副本:随机放在节点中
HDFS读流程
这里写图片描述
Client通过FileSystem.open()方法,去与NameNode进行rpc通信,返回该文件的部分或全部的block列表(也包含该列表各block的分布在Datanode地址的列表),也就是返回FSDataInputStream对象
Client调用FSDataInputStream.read()方法,与第一个块的最近的Datanode进行read,读取完毕后会check,若sucessful,会关闭与当前Datanode通信;若check file,会记录失败的块和Datanode信息,下次就不会读取,那么就会去该块的第二个Datanode地址读取;
然后去第二个块的最近的Datanode上的进行读取,check后,会关闭与此datanode的通信;
假如block列表读取完了,文件还未结束,那么FileSystem会从Namenode获取下一批的block的列表;
Client调用FSDataInputStream.close()方法,关闭输入流
HDFS写流程
这里写图片描述
Client调用FileSystem.create()方法,去与Namenode进行rpc通信,check该路径的文件是否存在以及有没有权限创建该文件,假如ok,就创建一个新文件,但是并不关联任何block,返回一个FSDataOutputStream对象;假如not ok,就返回错误信息,所以写代码要try-catch
Client调用FSDataOutputStream.write()方法,将第一个块写入第一个Datanode,第一个Datanode写完传给第二个节点,第二个写完传给第三节点,当第三个节点写完返回一个ackpacket给第二个节点,第二个返回一个ackpacket给第一个节点,第一个节点返回ackpacket给FSDataOutputStream对象,意思标识第一个块写完,副本数为3;然后剩余的块依次这样写
当向文件写入数据完成后,Client调用FSDataOutputStream.close()方法,关闭输出流,flush缓存区的数据包;
再调用FileSystem.complete()方法,告诉Namenode节点写入成功

MapReduce2架构设计,相同叫法(MapReduce提交到Yarn的工作流程,Yarn的工作流程,Yarn的架构设计)

这里写图片描述
这里写图片描述

shuffle洗牌的工作原理图

这里写图片描述

原创粉丝点击