hadoop2.x 伪分布安装部署

来源:互联网 发布:网络接口分线器 编辑:程序博客网 时间:2024/04/30 05:20

hadoop 2.x伪分布安装步骤


一、安装环境准备操作系统 linux  ( 我自己用的是unbutun)建议使用非root用户安装hadoop)

1、修改hostname为lin167

  1. $ sudo vim /etc/hostname
  2. $ cat /etc/hostname

2、配置host

  1. $ sudo vim /etc/hosts  
  2. $ cat /etc/hosts
  1. 127.0.0.1   localhost
  2. 192.168.0.167   lin167

 3、配置ssh免密码登录

  • 若系统没有装配ssh 则使用下面语句安装ssh:

  1. $ sudo apt-get install openssh-server  
  2. $ ps -e|grep ssh

出现以下语句证明成功安装

  1. 2228 ?        00:00:00 ssh-agent
  2. 5027 ?        00:00:00 sshd
  • 创建秘钥:

  1. $ ssh-keygen -t rsa    
  2. $ cd .ssh
  3. $ cp id_rsa.pub  authorized_keys

多个节点,就把每个节点的authorized_keys组合成一个大文件,然后分别覆盖到每个节点的authorized_keys  

4、java环境变量

      jdk详细安装请见     http://blog.csdn.net/linlinv3/article/details/45060705 安装jdk7(区分32位和64位)     

5、hadoop安装包目录结构分析

        bin:hadoop最基本的管理脚本和使用脚本所在目录 ,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用hadoop。

        etc:hadoop配置文件所在目录,包括core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml 等

        include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用c++程序访问hdfs或者编写mapreduce程序的。

        lib:改目录包含了hadoop对外提供的编程动态库和静态库,与include中的头文件结合使用

        libexec:各个服务对应的shell配置文件所在目录,可用于配置日志输出目录,启动参数(比如jvm参数)等基本信息

        sbin:hadoop管理脚本所在目录,主要包含hdfs和yarn中各类服务的启动关闭脚本

        share:hadoop哥哥模块编译后的jar包所在目录。

准备好以上环境后开始配置hadoop


二、安装步骤 (此处以hadoop-2.6.1 为例)

1、将安装包存放到一目录下,并解压 赋予权限

  1. $ sudo tar  zxvf /home/lin/hadoop/hadoop-2.6.1.tar.gz  -C /home/lin/hadoop/hadoop-2.6.1
  2. $ sudo chown -R lin:lin /home/lin/hadoop/hadoop-2.6.1

2、修改解压后的目录文件夹/etc/hadoop下的xml配置文件(如果文件不存在自己创建)

  • hadoop-env.sh 修改以下配置项 (java环境)                        

  1. export JAVA_HOME=/usr/java/jdk1.7.0_79
  • slaves文件配置为一下配置 (写成主机名)                  

  1. lin167
  • core-site.xml     

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://192.168.0.167:8020</value>  
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>file:///home/lin/hadoop/hadoop-2.6.1/data/tmp</value>
  9. </property>
  10. <property>
  11. <name>dfs.replication</name>
  12. <value>1</value>
  13. </property>
  14. </configuration>
  • hdfs-site.xml

  1. <configuration>
  2. <property>
  3.  <name>dfs.namenode.name.dir</name>
  4.  <value>file:///home/lin/hadoop/hadoop-2.6.1/data/nn</value>
  5. </property>
  6. <property>
  7.  <name>dfs.datanode.data.dir</name>
  8.  <value>file:///home/lin/hadoop/hadoop-2.6.1/data/dn</value>
  9. </property>
  10. <property>
  11. <name>dfs.permissions</name>
  12. <value>false</value>
  13. </property>
  14. </configuration>
  • yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. </configuration>
  • mapred-site.xml

    1. <configuration>
    2. <property>
    3. <name>mapreduce.framework.name</name>
    4. <value>yarn</value>
    5. </property>
    6. <property>
    7.  <name>mapreduce.jobhistory.address</name>
    8.  <value>192.168.0.167:10020</value>
    9.  <description>MapReduce JobHistory Server IPC host:port</description>
    10. </property>
    11. <property>
    12.  <name>mapreduce.jobhistory.webapp.address</name>
    13.  <value>192.168.0.167:19888</value>
    14.  <description>MapReduce JobHistory Server Web UI host:port</description>
    15. </property>
    16. </configuration>

      3、配置环境变量    


    1. $ sudo  vim /etc/profile
    1. export HADOOP_HOME=/home/lin/hadoop/hadoop-2.6.1
    2. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    3. export PATH=$PATH:$HADOOP_HOME/bin
    1. $ source /etc/profile




    三、启动hadoop 

    •   格式化hdfs

    1. hdfs  dfs namenode -format

     注意:若格式化后,若namenode起不来,这时候查看存储文件(hdfs-site.xml里面配置的nn和dn所在文件夹里面current文件下的version)保证两个version里面的id一样

    • 启动hdfs ( jobhistory可以不启动)

    1. sbin/start-all.sh
    1. sbin/mr-jobhistory-daemon.sh start historyserver
    • 验证是否启动成功

    1. $ jps

    有如下进程,则启动成功

    1. 3199 DataNode
    2. 9295 Jps
    3. 3069 NameNode
    4. 3412 SecondaryNameNode
    5. 3547 ResourceManager
    6. 3668 NodeManager
    Web Interfaces

    Daemon
    Web Interface
    Notes
    NameNode
    http://nn_host:port/
    Default HTTP port is 50070.
    ResourceManager
    http://rm_host:port/
    Default HTTP port is 8088.
    MapReduce JobHistory Server
    http://jhs_host:port/
    Default HTTP port is 19888.

    

     

    *************************************************************************************************************************
    转载注明出处:http://blog.csdn.net/linlinv3/article/details/42709589
    *************************************************************************************************************************

     
    0 0
    原创粉丝点击