HADOOP命令在getting client out of cache: org.apache.hadoop.ipc.Client卡一段时间的调试思路

来源:互联网 发布:淘宝上怎么买电棍 编辑:程序博客网 时间:2024/05/16 10:47

一旦卡超过10秒通常来讲是属于网络问题,

于是写了如下一段程序进行调试

    public static void main( String[] args ) throws Exception {    Configuration configuration = new Configuration();    configuration.addResource("core-site.xml");    configuration.addResource("hdfs-site.xml");    int res = ToolRunner.run(configuration, new org.apache.hadoop.fs.FsShell(), new String[]{"-ls", "/hbase"});        System.out.println(res);    }

在打印出标题中的那一行时暂停程序,发现程序停在了对fs.defaultFS的DNS解析上面。

尝试修改主机的hosts文件,这个问题可以解决。


另外尝试将配置成与hdfs-site.xml中dfs.nameservices不一致,这个问题也可以解决,

网上搜索这两个配置要求一致,但实测NameNode可以正常运行,跑MapReduce也没啥问题,所以不知道后续还有没有坑。


-------------------------------------------------------------后续--------------------------------------------------------------------------

果然还是不放心,搜到Hadoop的官方帮助文档里面找到了必须一致的原因。



而Hadoop会去DNS服务器解析 fs.defaultFS 的authority是不是一个主机,

所以最终是修改hosts使 fs.defaultFS 的authority指向0.0.0.0来加速这个问题,还要同步各个机器上的hosts文件。

当然如果有内网DNS服务器就不用这么麻烦了。

0 0
原创粉丝点击