hdfs du -sk 导致机器load高
来源:互联网 发布:java基础数据类型长度 编辑:程序博客网 时间:2024/05/02 02:55
hdfs 会定期(默认10分钟)使用 du -sk 命令统计BP的大小,在大硬盘机器上该操作耗时将会很长(可能超过10分钟)。这会导致 iowait 以及 load的提升。
例如:
社区为了解决这个问题,主要在两个方面进行了改造:
https://issues.apache.org/jira/browse/HADOOP-9884
- 使用 df 命令替换 du
- 允许用户自定义检查间隔时间
问题虽然被解决了,不过低于hadoop2.8的版本需要升级或者打patch的方式进行优化,较为麻烦。
不过也有一些临时的方案,比如说捕获到hdfs调用的 du -sk 命令,使用 df -k 进行替换。
tip: 这个方法的前提是每个BP目录单独位于一个磁盘上。
du 脚本,对正常的du命令不进行修改
mv /usr/bin/du /usr/bin/du_bakvim /usr/bin/du#!/bin/shif [[ $2 == */current/BP-* ]] && [ $1 == -sk ]then used=`df -k $2 | grep -vE 'Used|可用' | awk '{print $3}'` echo -e "$used\t$2"else echo -e "$(du_bak $@)"fichmod +x /usr/bin/du
红框为某机器替换后的du命令的效果,1图黄色部分为iowait比例:
阅读全文
0 0
- hdfs du -sk 导致机器load高
- hdfs du操作
- sk
- PySpark to load HDFS
- HDFS shell 中-du -df 用法详解
- hadoop hdfs BlockPoolSlice du directory regularly
- Apache服务器CPU利用率、Load值及Running值高导致WEB无法访问
- hive load from hdfs出错
- HDFS高可用性
- HDFS高可用
- HDFS 高可用集群
- HDFS高可用配置
- hdfs dfs -du -h 输出三列数据的含义
- Linux内核分析:页回收导致的cpu load瞬间飙高的问题分析与思考
- du
- du
- du
- du
- 使用libcurl访问https
- 哪怕荆棘满路,我们仍无畏前行
- 每个人都能 DIY 的 苹果电脑
- 前端工程师“应试”指南
- jvm-判断对象是否存活的算法
- hdfs du -sk 导致机器load高
- vm上安装 ftp
- 使用日志框架如何输出printStackTrace()的堆栈信息
- 【java虚拟机】栈帧、局部变量表、操作数栈
- 简单测试的makefile编写
- OkHttp简单封装Demo
- org.hibernate.InvalidMappingException: Unable to read XML
- java.lang.IllegalArgumentException: other than LinearLayoutManger is not supported
- 每日一练1