配置eclipse的hadoop插件时无法连接hdfs的解决办法
来源:互联网 发布:吉尔吉斯斯坦 知乎 编辑:程序博客网 时间:2024/05/26 20:22
如果直接将下载hadoop-eclipse-plugin-0.20.203.0.jar复制到eclipse的插件目录中,在连接DFS时会出现错误,提示信息为: "error: failure to login",弹出的错误提示框内容为"An internal error occurred during: "Connecting to DFS hadoop". org/apache/commons/configuration/Configuration". 经过察看Eclipse的log,发现是缺少jar包导致的。进一步查找资料后,发现直接复制hadoop-eclipse-plugin-0.20.203.0.jar,该包中lib目录下缺少了jar包。
首先要对hadoop-eclipse-plugin-0.20.203.0.jar进行修改。用归档管理器打开该包,发现只有commons-cli-1.2.jar和hadoop-core.jar两个包。将HADOOP_HOME/lib目录下的 commons-configuration-1.6.jar , commons-httpclient-3.0.1.jar , commons-lang-2.4.jar , jackson-core-asl-1.0.1.jar 和 jackson-mapper-asl-1.0.1.jar 等5个包复制到hadoop-eclipse-plugin-0.20.203.0.jar的lib目录下。
然后,修改该包META-INF目录下的MANIFEST.MF,将classpath修改为以下内容:
Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.0.1.jar,lib/jackson-mapper-asl-1.0.1.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar
然后安装插件就ok了,把这个文件放到 Eclipse的安装目录下的plugins,重新启动Eclipse,常规配置就能连接上hdfs。
- 配置eclipse的hadoop插件时无法连接hdfs的解决办法
- 配置Eclipse的Hadoop插件时无法连接HDFS的解决办法
- 在Ubuntu下安装eclipse并为eclipse配置hadoop开发环境(关于eclipse下无法找到hadoop插件的解决办法)
- hadoop hdfs eclipse 的一些配置
- eclipse安装hadoop插件,HDFS中没有输出的问题。
- Eclipse 连接不上 hadoop 的解决办法
- Windos上Eclipse连接外部Hadoop的HDFS时,拒绝连接解决方案
- STS或者eclipse连接hadoop上的HDFS文件系统
- eclipse上hadoop插件的配置
- Eclipse远程连接hadoop的hdfs时, 报 Permission denied错误
- 安装配置hadoop和eclipse插件遇到的坑和解决办法
- Eclipse连接hadoop的配置方法
- 编译hadoop的eclipse插件hadoop-eclipse-plugin-1.2.1.jar 【用来管理hadoop的HDFS和开发MapReduce项目】
- eclipse插件的svn无法更新的解决办法
- 在Eclipse中ADT插件无法成功安装的解决办法
- eclipse通过插件连接虚拟机里的hadoop集群
- eclipse无法连接hadoop
- eclipse下无法连接到github的解决办法
- 关于hibernate中文写入mysql数据库乱码问题
- ARM体系结构与编程
- samba创建
- ubuntu12下hadoop集群免登陆配置
- 国内开源缺陷管理系统PPM Bug v1.1发布
- 配置eclipse的hadoop插件时无法连接hdfs的解决办法
- 聚类的一些评价手段
- hadoop数据类型,编程作为参考
- 聚类算法之K-means
- Windows消息ID大全
- 使用PIG统计来访IP(多图版)
- 牛顿法
- vimrc 花括号自动补全
- 本地Apache绑定多域名