学习Hadoop所遇到的问题集
来源:互联网 发布:linux jobs 不显示 编辑:程序博客网 时间:2024/05/16 09:06
1.搭建伪分布式出现的问题,Namenode或者datanode无法启动
core-site.xml 配置如下
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property> <name>fs.default.name</name> <value>hdfs://192.168.1.109:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/administrator/hadooptmp</value> </property> </configuration>
hdfs-site.xml 配置如下:
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/home/administrator/dfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/home/administrator/dfs/data</value> </property> </configuration>
map-red.xml 配置如下:
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property> <name>mapred.job.tracker</name> <value>192.168.1.109:9001</value> </property> </configuration>
解决方法: 不要自己建文件夹dfs/name-data 格式化时hadoop会自动建立的 这样就不出错了
2.rmr: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete /user/administrator/in. Name node is in safe mode.
删除文件出错:请执行如下退出安全模式
administrator@ubuntu:~/Hadoop/hadoop-1.2.1/bin$ ./hadoop dfsadmin -safemode leave
3.org.apache.hadoop.security.AccessControlException: Permission denied: user=
这个错误,通常是权限错误。。
我用的hadoop1.2.1版本的 在ubuntu上搭建的伪分布式环境
然后 在window7上进行操作,代码如下
package hdfs;import java.net.URI;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;public class App1 {public static final String HDFS_PATH="hdfs://192.168.1.109:9000/";/** * @param args * @throws Exception */public static void main(String[] args) throws Exception {// TODO Auto-generated method stubFileSystem fs=FileSystem.get(new URI(HDFS_PATH),new Configuration());fs.mkdirs(new Path("/AppHello"));}}解决方法:上ubuntu上修改hdfs-core.xml
加上这么一段
<property><name>dfs.permissions</name><value>false</value></property>
0 0
- 学习Hadoop所遇到的问题集
- hadoop 集群中所遇到的问题
- 学习Hadoop遇到的问题
- 学习中目前所遇到的问题
- hadoop安装过程中所遇到的问题
- 在linux上搭建hadoop环境所遇到的问题
- hadoop hbase hive搭建运行所遇到的问题
- Hadoop学习过程中遇到的问题锦集
- 学习Hadoop中遇到的一些问题
- Hadoop学习过程遇到的问题总结
- 学习申报系统所遇到的一些hibernate的问题
- hadoop遇到的问题
- 学习QT线程时所遇到的问题。
- 记录学习旅途所遇到的问题-ubuntu
- 学习django框架,记录所遇到的问题以及解决方法
- Android搭建学习中所遇到的问题
- MySQL入门学习时,所遇到的问题(1)
- 在学习安装nagios中所遇到的问题
- 界面设计基本原则
- hdu 1258 Sum It Up(dfs)
- 由生产者/消费者问题看JAVA多线程
- Android 学习之路--也许就是你需要的
- .net 文件上传,通过文件头确认文件类型
- 学习Hadoop所遇到的问题集
- linux 《vmware下克隆的centos无法配置固定ip》
- 内存泄漏
- %1$d的作用
- C/C++可变参数函数
- Hbase 0.98.3 for Hadoop2 II(Based on Hdfs)
- 网络创业必须看十五大原则
- 水星无线路由器怎么设置
- wpf 自定义窗口,最大化时不覆盖任务栏