hbase 运维问题
来源:互联网 发布:python自动化工作 编辑:程序博客网 时间:2024/06/09 08:45
2014-02-22 01:52:02,194 ERROR org.apache.hadoop.hbase.regionserver.HRegionServer: Close and delete failed
org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: No lease on /hbase/.logs/testhd3,60020,1392948100268/testhd3%2C60020%2C1392948100268.1393004989411 File does not exist . Holder DFSClient_hb_rs_testhd3,60020,1392948100268 does not have any open files.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1631)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1622)
查了很长时间也没找到hbase的问题,后来根据网上资料查看了hadoop的日志如下:
2014-02-22 01:52:00,935 ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:hadoop cause:org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException:No lease on /hbase/.logs/testhd3,60020,1392948100268/testhd3%2C60020%2C1392948100268.1393004989411 File does not exist. Holder DFSClient_hb_rs_testhd3,60020,1392948100268 does not have any open files.
2014-02-22 01:52:00,936 INFO org.apache.hadoop.ipc.Server: IPC Server handler 3 on 9000, call addBlock(/hbase/.logs/testhd3,60020,1392948100268/testhd3%2C60020%2C1392948100268.1393004989411, DFSClient_hb_rs_testhd3,60020,1392948100268, null) from 172.72.101.213:59979: error: org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: No lease on /hbase/.logs/testhd3,60020,1392948100268/testhd3%2C60020%2C1392948100268.1393004989411 File does not exist. Holder DFSClient_hb_rs_testhd3,60020,1392948100268 does not have any open files.
org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: No lease on /hbase/.logs/testhd3,60020,1392948100268/testhd3%2C60020%2C1392948100268.1393004989411 File does not exist. Holder DFSClient_hb_rs_testhd3,60020,1392948100268 does not have any open files.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1631)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1622)
结果发现两个日志有几乎相同的记录,可以确认hbase的问题是由hadoop引起,修改如下:
默认是4096,改为8192
vi /home/dwhftp/opt/hadoop/conf/hdfs-site.xml
<property>
<name>dfs.datanode.max.xcievers</name>
<value>8192</value>
</property>
dfs.datanode.max.xcievers 参数说明
一个 Hadoop HDFS Datanode 有一个同时处理文件的上限. 这个参数叫 xcievers (Hadoop的作者把这个单词拼错了). 在你加载之前,先确认下你有没有配置这个文件conf/hdfs-site.xml里面的xceivers参数,至少要有4096:
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
转载:http://www.tuicool.com/articles/iQfYF3
- hbase 运维问题
- HBase集群运维管理 问题记录
- Hbase问题
- hbase问题
- hbase 问题
- HBase运维经验
- HBase 运维分析
- hbase日常运维
- hbase运维笔记
- Hbase 日常运维
- HBase运维手册
- 解决HBase问题hbase.PleaseHoldException
- HBase运维笔记系列
- HBase入库性能问题
- ubuntu hbase NotAllMetaRegionsOnlineException问题
- 几个hbase的问题
- hbase相关问题处理
- hbase问题记录
- [小技巧] JIRA里如何搜索一个数字
- 最佳实践:更好的设计你的 REST API
- 两分钟彻底让你明白Android中onInterceptTouchEvent与onTouchEvent(图文)!
- 【DB.Oracle】Oracle Hint
- Refactoring Day 5 : Pull Up Field
- hbase 运维问题
- Slow HTTP Denial of Service Attack防御
- PS制作可爱的花豹头像
- C#线程:BeginInvoke和EndInvoke方法
- java泛型类
- 标准差和标准误的区别
- MTK GPIO 一些理解
- Web 应用程序常见漏洞 CSRF 的入侵检测与防范
- java类与对象的创建与使用(注意与c++的有些关键字不一样)