CentOS6.5 64位安装单机版hadoop2.6教程

来源:互联网 发布:超级奇门排盘软件 编辑:程序博客网 时间:2024/05/18 02:24

Hadoop2.6单机安装

安装环境
硬件:虚拟机
操作系统:Centos 6.5 64位
主机名:hadoop0
安装用户:root

主机名很重要,可以任意自定义,但是一定要记住。

安装JDK

安装JDK1.6以上版本,我这里下载的是jdk1.8.0_73。
下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html
1,下载jdk1.8.0_73-linux-x64.gz,解压到/usr/lib/jdk1.8.0_73。

2,在/root/.bash_profile中添加如下配置:

如果用CentOS桌面来操作,点击查看隐藏文件,这个是个隐藏文件。右键“用编辑打开”在文档最下面添加如下配置,最后保存

export JAVA_HOME=/usr/lib/jdk1.8.0_73
export PATH=$JAVA_HOME/bin:$PATH

3,使环境变量生效,命令行输入,#source ~/.bash_profile

4,安装验证#java -version
java version “1.8.0_73”
Java(TM) SE Runtime Environment (build 1.8.0_73-b02)
Java HotSpot(TM) 64-Bit Server VM (build 25.73-b02, mixed mode)

配置SSH无密码登陆
命令行输入
#ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa
#cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
验证ssh,# ssh localhost
不需要输入密码即可登录

安装Hadoop2.6
1,下载Hadoop2.6
下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/stable2/hadoop-2.6.0.tar.gz

2,解压安装
1),复制 hadoop-2.6.0.tar.gz 到/root/hadoop目录下,
然后#tar -xzvf hadoop-2.6.0.tar.gz 解压,解压后目录为:/root/hadoop/hadoop-2.6.0
2),在/root/hadoop/目录下,建立tmp、hdfs/name、hdfs/data目录,执行如下命令
#mkdir /root/hadoop/tmp
#mkdir /root/hadoop/hdfs
#mkdir /root/hadoop/hdfs/data
#mkdir /root/hadoop/hdfs/name

如果是用桌面操作的话,就是在相应目录下新建文件夹

3),设置环境变量,#vi ~/.bash_profile

# set hadoop path
export HADOOP_HOME=/root /hadoop/hadoop-2.6.0
export PATH=$PATH:$HADOOP_HOME/bin

4),使环境变量生效,$source ~/.bash_profile

Hadoop配置

这里是复杂点的地方

进入文件夹/root/hadoop/hadoop-2.6.0/etc/hadoop

我们的hadoop是安装在root里面,所以地址是上面的,如果没有安装在这里,需要相应改变下。在这个文件下找一下配置文件,若是用桌面打开均是右键“用编辑打开”。

1)配置hadoop-env.sh

最下面添加如下信息
# The java implementation to use.
#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/usr/lib/jdk1.8.0_73

2)配置yarn-env.sh

#export JAVA_HOME=/home/y/libexec/jdk1.6.0/
#export JAVA_HOME=/usr/lib/jdk1.8.0_73

3)配置core-site.xml
添加如下配置:

其中,hdfs://hadoop0:9000需要注意是否跟你的主机名一致

<configuration> <property>    <name>fs.default.name</name>    <value>hdfs://hadoop0:9000</value> </property><property>    <name>hadoop.tmp.dir</name>    <value>/root/hadoop/tmp</value></property></configuration>

4)配置hdfs-site.xml
添加如下配置

<configuration><property>    <name>dfs.name.dir</name>    <value>/root/hadoop/hdfs/name</value>    <description>namenode上存储hdfs名字空间元数据 </description> </property><property>    <name>dfs.data.dir</name>    <value>/root/hadoop/hdfs/data</value>    <description>datanode上数据块的物理存储位置</description></property><property>    <name>dfs.replication</name>    <value>1</value>    <description>副本个数,配置默认是3,应小于datanode机器数量</description></property></configuration>

5)配置mapred-site.xml
添加如下配置:

这里需要非常注意下,文件夹里面没有这个XML,需要将mapred-queues.xml.template这个文件复制,然后重命名为mapred-site.xml!!!

<configuration><property>        <name>mapreduce.framework.name</name>        <value>yarn</value></property></configuration>

6)配置yarn-site.xml
添加如下配置:
注意最后的hadoop0需要改成你的主机名,hadoop0是我的主机名

<configuration><property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value></property><property>        <name>yarn.resourcemanager.webapp.address</name>        <value>${yarn.resourcemanager.hadoop0}:8099</value></property></configuration>

Hadoop启动
1)格式化namenode

# bin/hdfs namenode –format
2)启动NameNode 和 DataNode 守护进程

# sbin/start-dfs.sh
3)启动ResourceManager 和 NodeManager 守护进程

# sbin/start-yarn.sh

启动验证

1)执行jps命令,有如下进程,说明Hadoop正常启动

# jps
54679 NameNode
54774 DataNode
15741 Jps
55214 NodeManager
55118 ResourceManager
54965 SecondaryNameNode

2)在浏览器中输入:http://hadoop0:50070/ 即可看到YARN的ResourceManager的界面

地址是主机名+50070端口,hadoop0是我的主机名需要改成你的主机名。

附赠:hadoop端口的具体说明
http://blog.cloudera.com/blog/2009/08/hadoop-default-ports-quick-reference/

0 0