Hadoop常见报错解答
来源:互联网 发布:土耳其 知乎 编辑:程序博客网 时间:2024/05/16 06:26
1、启动Hadoop后发现datanode没有启动,报如下错误:
WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/opt/hadoop/hadoop-2.7.3/hdfs/data/
java.io.IOException: Incompatible clusterIDs in /opt/hadoop/hadoop-2.7.3/hdfs/data: namenode clusterID = CID-fdc65d4a-e307-489b-acd2-dd1cd8906794; datanode clusterID = CID-254be5a5-9e38-42d6-ae59-cfeb58d258bd
应该是由于多次格式化命令所致(/opt/hadoop/hadoop-2.7.3/bin/hdfs namenode -format)
解决方法:
停止Hadoop服务,删除/opt/hadoop/hadoop-2.7.3/hdfs/data/下的所有文件,然后重新格式化,再启动就好了
阅读全文
0 0
- Hadoop常见报错解答
- hadoop一些常见报错的解决方案
- hadoop集群常见的报错原因
- hadoop报错日志
- Hadoop 之报错
- 运行hadoop报错
- hadoop编译报错
- hadoop安装报错
- Hadoop报错
- hadoop报错ConnectionRefused
- hadoop启动报错
- Hadoop报错
- hadoop报错10020
- VC常见报错
- svn 常见报错
- rails 常见报错
- MDK常见报错
- web常见报错
- CentOS的free命令
- python 之模拟登陆csdn
- 用友数据库源配置
- 系统虚拟机安装与管理
- angular上传图片,最近自己研究了一个。笨方法。
- Hadoop常见报错解答
- CentOS系统安装Redis数据库
- Struts2 拦截器电子书
- C++11 move带来的高效
- redis 集群
- Javascript 包装对象
- 7.Linux文件权限
- WebStorm设置服务器-局域网内其他设备访问(移动端手机访问测试等)
- 前端小马上路了