hadoop配置常见错误及解决办法

来源:互联网 发布:js上一个兄弟节点 编辑:程序博客网 时间:2024/05/09 00:30
 Incompatible namespaceIDs 
解决办法 找到配置文件hdfs-site.xml中<property>
<name>dfs.data.dir</name>
<value>/opt/hadoop/hdfs/data</name>
</property>
删除data目录
























Can not start task tracker because java.io.IOException: Call to hadoop-namenode/192.168.56.101:9001 failed on local exception: java.io.IOException: Connection reset by peer
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)
at org.apache.hadoop.ipc.Client.call(Client.java:743)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)
at org.apache.hadoop.mapred.$Proxy4.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383)
at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314)
at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:291)
at org.apache.hadoop.mapred.TaskTracker.initialize(TaskTracker.java:514)
at org.apache.hadoop.mapred.TaskTracker.<init>(TaskTracker.java:934)
at org.apache.hadoop.mapred.TaskTracker.main(TaskTracker.java:2833)
Caused by: java.io.IOException: Connection reset by peer
at sun.nio.ch.FileDispatcher.read0(Native Method)
at sun.nio.ch.SocketDispatcher.read(SocketDispatcher.java:21)
at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:237)
at sun.nio.ch.IOUtil.read(IOUtil.java:210)
at sun.nio.ch.SocketChannelImpl.read(SocketChannelImpl.java:236)
at org.apache.hadoop.net.SocketInputStream$Reader.performIO(SocketInputStream.java:55)
at org.apache.hadoop.net.SocketIOWithTimeout.doIO(SocketIOWithTimeout.java:142)
at org.apache.hadoop.net.SocketInputStream.read(SocketInputStream.java:155)
at org.apache.hadoop.net.SocketInputStream.read(SocketInputStream.java:128)
at java.io.FilterInputStream.read(FilterInputStream.java:116)
at org.apache.hadoop.ipc.Client$Connection$PingInputStream.read(Client.java:276)
at java.io.BufferedInputStream.fill(BufferedInputStream.java:218)
at java.io.BufferedInputStream.read(BufferedInputStream.java:237)
at java.io.DataInputStream.readInt(DataInputStream.java:370)
at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:501)
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:446)


2012-10-04 16:02:07,526 INFO org.apache.hadoop.mapred.TaskTracker: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down TaskTracker at hadoop-datanode1/192.168.56.102
************************************************************/


一次分布式程序运行下来,发现执行到最后的时候出错造成了 job异常退出,然后重新启动namenode是发现connect tol


localhost trys 0 times ...最后报了错误local exception:connection reset by peer,崩溃,网上找资料,将Localhost


修改为ip地址,不管用,重新配置了ssh,也不管用,那个郁闷,差点要namenode format掉了,但是自己辛辛苦苦生成的打资源就没有了,不甘心!


后来,又了解了一下所有的配置过程,在一次无意的机会下,发现区别在于Logs文件夹下有很多其他的数据,难道是这个原因?将Logs文件夹下所有的文件删除掉,在启动dfs,启动成功!


希望我的这个经历会对大家有所帮助!


本篇文章来源于 Linux公社网站(www.linuxidc.com)  原文链接:http://www.linuxidc.com/Linux/2012-08/67660.htm












hadoop删除文件是提示rmr: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete(2012-03-24 14:07:37)转载▼标签: 杂谈 分类: 云计算/hadoop  
在运行mapreduce应用程序的时候,调节系统参数,然后想重新运行改程序,于是将原来的输出文件夹删除。这时候出现问题了: 




lee@lee:~$ hadoop fs -rmr /home/lee/output
rmr: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete /home/lee/output. Name node is in safe mode.




决绝办法是执行
hadoop dfsadmin -safemode leave




-------------------------------------------------------------------------------------------------------------------------------------
以下来自: http://hi.baidu.com/tekkie1987/blog/item/fe5c1883cb18639ff603a612.html




运行hadoop程序时,有时候会报以下错误: 
org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode 
这个错误应该还满常见的吧(至少我运行的时候是这样的) 




那我们来分析下这个错误,从字面上来理解: 
Name node is in safe mode 




说明Hadoop的NameNode处在安全模式下。 
那什么是Hadoop的安全模式呢? 
在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。 




现在就清楚了,那现在要解决这个问题,我想让Hadoop不处在safe mode 模式下,能不能不用等,直接解决呢? 
答案是可以的,只要在Hadoop的目录下输入: 
bin/hadoop dfsadmin -safemode leave 




也就是关闭Hadoop的安全模式,这样问题就解决了。




之前在hadoop执行过程中使用了"ctrl+c"操作
再次使用hadoop时出现“Name node is in safe mode”提示:
root@v-jiwan-ubuntu-0:~/hadoop/hadoop-0.20.2# bin/hadoop fs -put conf input
put: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/input/conf. Name node is in safe mode.




-----------------------------
最近在測試hadoop,但是沒想到在reduce時卡點,
沒辦法只好Ctrl+c,但是問題也就跟著來了XD
先將hadoop停止後,再啟動hadoop
然後要刪除DFS裡的資料時,
就出現name node is in safe mode,就沒辦法刪除資料啦!
找了好久才找到答案,
bin/hadoop dfsadmin -safemode leave
就可以把safemode解除,為了這個問題煩惱了好久Orz
-----------------------------
safemode模式
NameNode在启动的时候首先进入安全模式,如果datanode丢失的block达到一定的比例(1-dfs.safemode.threshold.pct),则系统会一直处于安全模式状态即只读状态。
dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了元数据记录的block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。
下面这行摘录自NameNode启动时的日志(block上报比例1达到了阀值0.9990)
The ratio of reported blocks 1.0000 has reached the threshold 0.9990. Safe mode will be turned off automatically in 18 seconds.
hadoop dfsadmin -safemode leave
有两个方法离开这种安全模式
 1. 修改dfs.safemode.threshold.pct为一个比较小的值,缺省是0.999。
 2. hadoop dfsadmin -safemode leave命令强制离开
http://bbs.hadoopor.com/viewthread.php?tid=61&extra=page=1
-----------------------------
Safe mode is exited when the minimal replication condition is reached, plus an extension
time of 30 seconds. The minimal replication condition is when 99.9% of the blocks in
the whole filesystem meet their minimum replication level (which defaults to one, and
is set by dfs.replication.min).
安全模式的退出前提 - 整个文件系统中的99.9%(默认是99.9%,可以通过dfs.safemode.threshold.pct设置)的Blocks达到最小备份级别(默认是1,可以通过dfs.replication.min设置)。
dfs.safemode.threshold.pct       float        0.999 
The proportion of blocks in the system that must meet the minimum
replication level defined by dfs.rep lication.min before the namenode
will exit safe mode. Setting
this value to 0 or less forces the name-node not to start in safe mode.
Setting this value to more than 1 means the namenode never exits safe
mode.
-----------------------------
用户可以通过dfsadmin -safemode value   来操作安全模式,参数value的说明如下:
enter - 进入安全模式
leave - 强制NameNode离开安全模式
get -   返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束。




















eclipse ant错误:ant build.xml Unable to find a javac compiler解决 .
2008-12-03 14:09 714人阅读 评论(0) 收藏 举报 
Unable to find a javac compiler;
com.sun.tools.javac.Main is not on the classpath.
Perhaps JAVA_HOME does not point to the JDK.
It is currently set to "D:/Java/jre1.5.0_09"


最后,在windows->preferences->ant-> Runtime->Classpath->Add Jars中,添加了jdk下面的/lib/tools.jar后,编译通过。原来com.sun.tools.javac.Main在这个 tools.jar中。