【2-3】HDFS之DataNode

来源:互联网 发布:打击电信网络诈骗作文 编辑:程序博客网 时间:2024/06/05 00:55

Datanode:提供真实文件数据的存储服务


HDFS默认的block大小是128M


Q:如果我是130M的文件,我该用几块?

A:2块,不过第二块只放了2M,有点太浪费了。有什么好方法?

做个试验 先删去hadoop之前所有的东西,再上传一个130M的jdk,由于,

Linux文件系统之上有一个HDFS,HDFS上的数据还要保存在Linux系统上【比如哪个磁盘上】

itcast/hadoop-2.2.0/tmp/dfs/ 里面有三个文件 data name namesecondary

cd到data/current/BP-很长很长的文件/current/finalized/       才可以看到块 

每个块都有一个.meta结尾的文件信息


之后,看每个块的大小,134217728字节,是128M

下一个是它的描述信息

第二块是9389717字节,是第二块。并没有占128M,而是占了真实的大小。



心跳:每隔一段时间跳一次,如果不跳了,停了,就被认为是“死了”

小弟每隔一段时间给老大发心跳


datanode最终最终还是保存在Linux文件系统。



0 0