hadoop 分布式 集群配置 笔记
来源:互联网 发布:家用动感单车 知乎 编辑:程序博客网 时间:2024/05/08 05:22
使用了两天的时间,终于将这个hadoop的集群配置弄好了。参考了很多的网页,受益非浅。
SSH无密码登陆配置
首先谈一谈ssh的无密码登陆问题。
按照网上的说法,比如说A想无秘密登陆B。
那么在A上使用ssh-keygen命令产生密钥id_rsa,和id_rsa.pub。然后将id_rsa.pub拷贝到B的相应的用户的主目录下面就可以了。
cat 到 authorized_keys中。
但是简单的上面的方法,登陆时B还是会要求输入密码,可以采用chmod 644 authorized_keys 。
之后,又碰见过几次需要输入密码,我的方法是直接重复上面的步骤就可以了。
Java安装
Java的安装,到处下载Jdk,之前下载的后缀为.rpm.bin一直安装不了,最后在官网上面下载了一个后缀为.bin的自解压程序进行安装。
安装之后还需要修改/etc/profile文件。我的java是按爪功能在了/usr/lib/jvm/java-6-sun文件夹下面。
采用了一个master,三个slave。
按照网上的说法,配置hadoop中conf文件夹下来的xml文件。
core-site.xml
<configuration> <property><name>hadoop.tmp.dir</name> <value>/root/hadoop/tmp</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> <description> The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. </description> </property> </configuration>
hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-6-sun
hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>2</value> </property></configuration>
mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>master:9001</value> <description>The host and port that the MapReduce job tracker runsat.</description> </property></configuration>
由于在/etc/hosts中设置的ip映射为:
127.0.0.1 localhost
127.0.1.1 ubuntu.ubuntu-domain ubuntu192.168.0.189 master
192.168.0.104 slave1
192.168.0.135 slave2
192.168.0.149 slave3
(在所有的master和slave中都是这样的一个配置)
所以,在masters文件夹中写入:
master
在slaves文件夹中写入:
slave1slave2
slave3
之后还需要配置/etc/profile文件,在该文件中写入java和hadoop的home位置。
JAVA_HOME=/usr/lib/jvm/java-6-sun
JRE_HOME=/usr/lib/jvm/java-6-sun/jre
CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export JAVA_HOME
export JRE_HOME
export CLASSPATH
export PATH
HADOOP_HOME=/root/hadoop(在master和slaves上面,我都是将hadoop安装在了这个文件夹里面)
PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_HOME
export PATH
在后面增加了上面几行。
Hadoop集群的配置
之后将配置好了的hadoop拷贝到masters,slaves机器的/root/hadoop目录下。
本以为这个样子就大功告成了,可惜总是出现datanode连接不上namenode的问题。在datanode也就是slave上面查看datanode的日志时,的错误为:
2011-10-26 17:57:05,231 INFO org.apache.hadoop.ipc.RPC: Server at /192.168.0.189:9000 not available yet, Zzzzz...2011-10-26 17:57:07,235 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 0 time(s).
2011-10-26 17:57:08,236 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 1 time(s).
2011-10-26 17:57:09,237 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 2 time(s).
2011-10-26 17:57:10,239 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 3 time(s).
2011-10-26 17:57:11,240 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 4 time(s).
2011-10-26 17:57:12,241 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.0.189:9000. Already tried 5 time(s).
也就是datanode连接不上namenode。而在namenode上面显示:
2011-10-26 14:18:49,686 INFO org.apache.hadoop.ipc.Server: IPC Server handler 1 on 9000, call addBlock(/root/hadoop/tmp/mapred/system/jobtracker.info, DFSClient_-1928560478, null, null) from 127.0.0.1:32817: error: java.io.IOException: File /root/hadoop/tmp/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1java.io.IOException: File /root/hadoop/tmp/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1448)
at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:690)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.WritableRpcEngine$Server.call(WritableRpcEngine.java:342)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1350)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1346)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:742)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1344)
也就是说namenode也在试图将jobtracker.info存入hdfs文件系统中,而又存不进去。然后查了一下网上的说法,之后发现原来是/etc/hosts中的ip映射的问题。由于在master中/etc/hosts的配置为:
127.0.0.1 master
192.168.0.189 master
192.168.0.104 slave1
192.168.0.135 slave2
192.168.0.149 slave3
因此可能存在一个优先匹配第一个碰见的问题,之后是将前两行注释掉(后来又将第一行改为了127.0.0.1 localhost)。然后在进行正常的hadoop format和启动,就可以连接上了。
最后可能还有时候出现错误datanode自动关闭的问题。解决这个问题的方法是删除所有masters,slaves中的tmp文件。然后format,重启就可以了。
还有一个步骤是更改了所有机器的hostname,但是不知道是不是必要的,虽然在/etc/hosts中的ip映射中说明了各个名称对应的ip,但是各个机器的hostname仍然是ubuntu。所以使用了命令 hostname临时改变了hostname,分别为对应的master,slave1,..这些名称。
- hadoop 分布式 集群配置 笔记
- Hadoop分布式集群配置
- Hadoop分布式集群配置
- Hadoop分布式集群配置总结
- 分布式Hadoop集群安装配置
- Hadoop 完全分布式集群配置
- Hadoop完全分布式集群配置
- Hadoop配置集群/分布式环境
- hadoop分布式集群搭建笔记
- 【Hadoop】 分布式Hadoop集群安装配置
- 完全分布式hadoop集群安装之三:hadoop集群配置
- Hadoop-0.22.0分布式集群配置
- Hadoop-0.20.0分布式集群配置
- Hadoop伪分布式集群环境配置
- Hadoop-0.22.0分布式集群配置
- Hadoop-0.22.0分布式集群配置
- Hadoop集群完全分布式安装与配置
- linux虚拟机下Hadoop集群分布式配置
- 在Linux下实现comer的TCP/IP协议栈——缓冲池管理和信号灯控制
- vnc协议编码方式
- VNC viewer结构分析
- c#学习笔记之序列化与反序列化-1
- 伙伴算法
- hadoop 分布式 集群配置 笔记
- 动态加载一些控件
- 图的链表的 bfs
- 用JS去掉第一个字符和最后一个字符
- 浏览器的工作原理
- doxygen example
- 让UI开发轻松而快乐,用SonicUI引擎实现常见UI效果
- 《C++面向对象多线程编程》笔记--1
- c/c++中的NULL和0的区别