start-dfs.sh 在slave机器中报错
来源:互联网 发布:为奴十二年 知乎 编辑:程序博客网 时间:2024/06/08 11:21
在HADOOP_HOME/logs/hadoop-root-datanode-slave.out文件中发现以下错误
java.io.IOException: Incompatible clusterIDs in /usr/hadoop/tmp/dfs/data: namenode clusterID = CID-cd47cf1e-0f81-41b0-97df-7407db9f1fa5; datanode clusterID = CID-0462092f-2740-40a4-bf96-246be2efc49f
原因:每次执行./hdfs namenode -format进行namenode format时会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode机器下的数据,但是没有晴空datanode机器下的数据,导致启动时失败,所要做的就是每次fotmat前,清空tmp一下 的所有目录.
解决方法 ::删除HADOOP_HOME/tmp下的所有内容即可。
0 0
- start-dfs.sh 在slave机器中报错
- Spark使用start-slave.sh启动Worker
- 【Hadoop】执行start-dfs.sh出错
- HADOOP1.0.3的start-dfs.sh系列脚本分析
- hadoop2.4.0 启动start-dfs.sh 不能加载本地库
- 执行start-dfs.sh后,datenode没有启动
- Hadoop-2.2.0启动./start-dfs.sh报错解决方法
- 执行start-dfs.sh后,datenode没有启动
- 执行start-dfs.sh后,datenode没有启动
- 执行start-dfs.sh后,datenode没有启动
- 执行start-dfs.sh后,datenode没有启动
- 执行start-dfs.sh后,datenode没有启动
- start-dfs.sh无法启动namenode(jps查看不到namenode)
- 大数据-执行start-dfs.sh后,datenode没有启动
- start-dfs.sh启动HDFS发现datanode没有启动
- hadoop启动start-all.sh,slave节点没有datanode的问题
- slave-cmd.sh
- 在同一MySQL机器上做多台MySQL主机的slave端
- 那件24号球衣
- linux find
- mysql 基础操作 sql语句
- RFCOMM 协议学习
- 吴华人和人家问额外热突然让人家是如何我热死人家实打实的时间的时间宿舍
- start-dfs.sh 在slave机器中报错
- 终于搞定Linux的NAT即时生效问题
- 数据的累计
- 标准光源与色温对应关系
- IE下高度100%
- 黑马程序员——javaGUI编程
- centos下的freeradius安装dialup_admin
- 为何不将仅仅路过的数据包导入本地协议栈呢
- 哪些seo技术用不得