Hadoop-1.1.2部署在RedHat Linux 5上常见错误及解决方案
来源:互联网 发布:深圳蔓延视觉知乎 编辑:程序博客网 时间:2024/06/16 17:34
遇到的问题:
1、在hadoop conf下执行命令: hadoop-daemon.sh start datanode,无法启动hadoop datanode:
[hadoop@master conf]$ hadoop-daemon.sh start datanode
Warning: $HADOOP_HOME is deprecated.
starting datanode, logging to /opt/modules/hadoop/hadoop-1.1.2/libexec/../logs/hadoop-hadoop-datanode-master.out
[hadoop@master conf]$ jps
4662 NameNode
4819 Jps
[hadoop@master conf]$ tail -300f /opt/modules/hadoop/hadoop-1.1.2/libexec/../logs/hadoop-hadoop-datanode-master.log
报错:
Incompatible namespaceIDs in /data/hadoop/hdfs/data: namenode namespaceID = 573007068; datanode namespaceID = 1802250800
解决方法:删除data目录(即是在hdfs-site.xml文件中配置的dfs.data.dir目录)然后重启datanode。
[hadoop@master conf]$ rm -rf /data/hadoop/hdfs/data
[hadoop@master conf]$ ll /data/hadoop/hdfs/
total 8
drwxrwxr-x 5 hadoop hadoop 4096 Jul 6 08:17 name
drwxrwxr-x 2 hadoop hadoop 4096 Jul 2 06:59 namesecondary
[hadoop@master conf]$ hadoop-daemon.sh start datanode
2、启动Jobtracker时报错:
2013-07-06 10:03:09,584 INFO org.apache.hadoop.mapred.JobTracker: problem cleaning system directory: hdfs://master:9000/data/hadoop/mapred/mrsystem
org.apache.hadoop.ipc.RemoteException: java.io.FileNotFoundException: Parent path is not a directory: /data
原因是:有个/data文件(注意不是文件夹,跟参数刚好不相匹配),也可以通过网页中看:
NameNode 'master:9000'
Started: Sat Jul 06 09:54:05 PDT 2013
Version: 1.1.2, r1440782
Compiled: Thu Jan 31 02:03:24 UTC 2013 by hortonfo
Upgrades: There are no upgrades in progress.
Browse the filesystem
Namenode Logs
解决方法:删除掉该文件:hadoop fs -rmr /data 即ok
3、在hadoop中编译eclipse导出的jar包时报错:
[hadoop@master hadoop-1.1.2]$ hadoop jar hdfs1.jar com.hadoop.hdfs.HDFSMkdir
Warning: $HADOOP_HOME is deprecated.
Exception in thread "main" java.lang.UnsupportedClassVersionError: com/hadoop/hdfs/HDFSMkdir : Unsupported major.minor version 51.0
原因:eclipse中所用java版本与hadoop所用java版本不一致。
解决方法:更改eclipse中的java版本重新导出jar包。
4、在访问Master:50070之后,点击browse the filesystem后,该页无法显示。
原因:点击browse the filesystem后,网页转向的地址用的是hadoop集群的某一个datanode的主机名,由于客户端的浏览器无法解析这个主机名,因此该页无法显示。
解决方法:需要在客户端的(C:\WINDOWS\system32\drivers\etc\hosts)hosts文件里加入hadoop集群的ip地址与对应的主机名
原因:点击browse the filesystem后,网页转向的地址用的是hadoop集群的某一个datanode的主机名,由于客户端的浏览器无法解析这个主机名,因此该页无法显示。
解决方法:需要在客户端的(C:\WINDOWS\system32\drivers\etc\hosts)hosts文件里加入hadoop集群的ip地址与对应的主机名
5、org.apache.hadoop.security.AccessControlException: Permission denied: user=administrator, access=EXECUTE, inode="xxx":heipark:supergroup:rwx-
原因:本地用户administrator(本机windows用户)想要远程操作hadoop系统,没有权限引起的。
解决方法:
a、如果是测试环境,可以取消hadoop hdfs的用户权限检查。打开conf/hdfs-site.xml,找到dfs.permissions属性修改为false(默认为true)。
b、修改hadoop location参数,在advanced parameter选项卡中,找到hadoop.job.ugi项,将此项改为启动hadoop的用户名即可。
注意第一次设置的时候可能没有hadoop.job.ugi参数,报错后在去看就有了。
- Hadoop-1.1.2部署在RedHat Linux 5上常见错误及解决方案
- Hadoop-1.1.2部署在RedHat Linux 5上常见错误及解决方案
- 在IIS上部署网站常见错误
- 在redhat与ubuntu上编译jdk常见错误总结
- hadoop在linux操作系统中部署遇到的问题及解决方案
- hadoop从零开始--linux常见错误及hadoop配置相关
- linux常见错误解决方案
- 在Redhat Enterprise linux 5上 安装Oracle10g Release 2
- 在Hadoop上部署nutch 及nutch相关
- hbase,hadoop 在ubuntu 上安装及部署配置
- hadoop常见错误及解决办法!
- hadoop常见错误及解决办法!
- Hadoop常见错误及解决办法
- hadoop常见错误及解决办法!
- hadoop常见错误及解决
- Hadoop常见错误及解决办法
- Hadoop 常见错误及解决办法
- hadoop常见错误及解决方法
- css hack
- linux中getopt的用法
- ogg sourceistable extract parameter files - as an etl tool
- iOS 内存之堆(heap)和栈(stack)
- 《accelerated c++》---------第六章
- Hadoop-1.1.2部署在RedHat Linux 5上常见错误及解决方案
- 黑马程序员--枚举
- NS_ENUM & NS_OPTIONS
- 面试技巧之还有什么问题需要了解吗?
- 《Test-Driven development By Example》阅读(三)
- Android中图片的放大和缩小源码
- Eclipse日志文件存放在何处
- 二次邮件支付
- 又是一年放假季