hadoop datanode节点超时时间设置
来源:互联网 发布:软件开发认证 编辑:程序博客网 时间:2024/06/09 18:24
datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:
timeout = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.interval。
而默认的heartbeat.recheck.interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。
需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。所以,举个例子,如果heartbeat.recheck.interval设置为5000(毫秒),dfs.heartbeat.interval设置为3(秒,默认),则总的超时时间为40秒。
hdfs-site.xml中的参数设置格式:
<property>
<name>heartbeat.recheck.interval</name>
<value>2000</value>
</property>
<property>
<name>dfs.heartbeat.interval</name>
<value>1</value>
</property>
阅读全文
0 0
- hadoop datanode节点超时时间设置
- hadoop datanode节点超时时间设置
- hadoop datanode 节点超时时间设置
- hadoop datanode节点超时时间设置
- hadoop datanode节点超时时间设置
- datanode节点超时时间设置
- hadoop之——datanode节点超时时间设置
- hadoop DataNode节点超时
- hadoop DataNode节点超时
- hadoop DataNode节点超时
- Hadoop添加节点datanode
- Hadoop添加节点datanode
- [Hadoop]Hadoop添加节点datanode
- Hadoop datanode节点无法启动
- Hadoop 数据节点DataNode异常
- datenode节点超时时间设置,Hadoop启动不正常,HDFS冗余数据块的自动删除,NameNode安全模式问题,ntp时间服务同步,机架感知配置
- Hadoop集群中引入新DataNode节点
- Hadoop 添加数据节点(datanode)
- 不用淘宝镜像解决NPM下载错误或失败的方法
- [DP] [2D2D优化] [二维树状数组] [SCOI2014] 方伯伯的玉米田
- hdoj 2444 The Accomodation of Students(二分图判定+匈牙利裸题)
- コンピュターグラフィックス COMPUTER GRAPHICS[FOR CG ENGINEERS]-Chapter2-0706
- 算法学习(动态规划 一)钢条切割
- hadoop datanode节点超时时间设置
- Cameras
- Jquery validate 表单验证插件的使用(转自菜鸟)
- 聊聊你不知道的建造者设计模式
- C# 委托 事件 观察者模式 总结
- 缓存无关算法
- git的一些基础命令
- BZOJ 2440: [中山市选2011]完全平方数 莫比乌斯反演 +容斥原理
- poj 2406 后缀数组dc3 板子 计算出现次数最多的循环节 dc3 板子