Hadoop2.6.4伪分布式环境搭建

来源:互联网 发布:百度软件商店 编辑:程序博客网 时间:2024/05/29 09:15
  1. 下载Hadoop,这里选择2.6.4版本
  2. 下载好的Hadoop包使用Xftp移动到/root/Downloads/目录下,解压缩

    cd /root/Downloads/tar -zxvf hadoop-2.6.4.tar.gz

    解压hadoop2.6.4

  3. 执行命令mv hadoop-2.6.4/ /usr/local/移动到/usr/local/目录下,为了方便操作可以重命名,此处不再命名
    移动到/usr/local/目录下
  4. 执行命令vi /etc/profile配置hadoop的环境变量
    可以用Xftp或直接在虚拟机里查看/usr/local/hadoop-2.6.4/的目录结构,发现hadoop2.6.4的各种运行命令是在sbin文件夹下的,将sbin配置到系统路径上,配置如下:
    配置Hadoop环境
  5. 执行命令source /etc/profile使配置立即生效
    生效
  6. 执行命令hadoop version查看环境变量是否设置成功
    hadoop version
  7. 修改hadoop的配置文件
    配置文件所在目录:$HADOOP_HOME/etc/hadoop,需要修改4个配置文件。目前的任务是先把hadoop跑起来,以下是安装hadoop伪分布模式的最小化配置。以下四个配置文件的修改可使用Xftp工具选择要修改的文件,右键用记事本编辑,修改保存即可。
    直接修改

    • 7.1 修改hadoop环境变量脚本文件hadoop-env.sh

      cd /usr/local/hadoop-2.6.4/etc/hadoop/vi hadoop-env.sh

      修改env脚本
      修改设置JAVA_HOME

      export JAVA_HOME=/usr/local/jdk

      修改javahome

    • 7.2 修改hadoop核心配置文件core-site.xml
      执行命令vi core-site.xml,修改配置
      core-site

      <configuration>    <property>        <name>hadoop.tmp.dir</name>        <value>/home/hadoop/tmp</value>        <description>hadoop运行临时文件的主目录</description>    </property>    <property>        <name>fs.default.name</name>        <value>hdfs://cyyun:9000</value>        <description>HDFS的访问路径</description>    </property></configuration>

      其中cyyun表示设置的Linux主机名。

    • 7.3 修改HDFS配置文件hdfs-site.xml
      执行命令vi hdfs-site.xml,修改配置
      hdfs

      <configuration>    <property>        <name>dfs.replication</name>        <value>1</value>        <description>存储副本数</description>    </property></configuration>
    • 7.4 修改MapReduce配置文件mapred-site.xml
      使用vi命令并按Tab键补全发现其中没有mapred-site.xml
      mapred
      需要拷贝mapred-site.xml.template并重命名
      执行命令cp mapred-site.xml.template mapred-site.xml进行拷贝重命名
      cp mapred
      执行命令vi mapred-site.xml,修改配置
      vimapred

      <configuration>    <property>        <name>mapred.job.tracker</name>        <value>cyyun:9001</value>        <description>JobTracker的访问路径</description>    </property></configuration>

    以上,hadoop配置完成。

  8. 格式化文件系统
    hdfs是文件系统, 在第一次使用之前需要进行格式化 。
    执行命令hadoop namenode -format格式化
    格式化文件系统
    注:只在第一次启动的时候格式化,不要每次启动都格式化。如果真的有必要再次格式化,请先把core-site.xml文件中配置的属性hadoop.tmp.dir目录下的文件全部删除。
  9. 启动hadoop
    执行start-all.sh启动hadoop
    第一次启动会有提示
    第一次启动需要确认,直接输入yes回车即可。
  10. 执行命令jps查看进程,确认是否成功启动
    jps查看进程
    若有上面这些进程名称,说明hadoop成功启动了。
  11. 使用端口访问页面查看hadoop状态
    在Linux系统中配置了主机和ip的映射,浏览器地址使用192.168.1.200:50070(ip:50070)或者cyyun:50070(主机名:50070)都可访问;如果在windows下用浏览器访问,使用ip可直接访问,如果要使用主机名:50070访问,可在C:\Windows\System32\drivers\etc目录下找到配置文件hosts,编辑打开,增加一行内容,和Linux下配置一样。
    配置Window主机映射
    页面能访问50070
    8088端口
  12. 运行wordcount的MapReduce计算​

    • 12.1 在$HADOOP_HOME/share/hadoop/mapreduce找到hadoop-mapreduce-examples-2.6.4.jar的jar包
      jar包

      cd /usr/local/hadoop-2.6.4/share/hadoop/mapreduce

      mapreduce目录

    • 12.2 执行命令hadoop jar hadoop-mapreduce-examples-2.6.4.jar查看jar中程序的命令
      找到wordcount命令
      选择wordcount来运行,统计文件中单词的出现次数
    • 12.3 执行命令hadoop jar hadoop-mapreduce-examples-2.6.4.jar wordcount查看如何执行wordcount程序
      需要怎么运行
      ​ in和out表示后面要跟输入路径和输出路径
    • 12.4 上传一个文件到hdfs中
      将$HADOOP_HOME下的README.txt文件上传到hdfs中

      hadoop fs -put /usr/local/hadoop-2.6.4/README.txt /

      hdfs-put
      有一个警告,先不管它,不影响正常使用

    • 12.5 查看是否上传到hdfs中

      hadoop fs -ls /

      查看上传成功
      可以看到刚刚上传的README.txt文件

    • 12.6 运行wordcount

      hadoop jar hadoop-mapreduce-examples-2.6.4.jar wordcount /READEME.txt /output

      将结果放到hdfs的output文件夹下
      mapreduce执行起来

    • 12.7 查看wordcount运行结果
      命令执行结束,运行的结果就会存在输出路径的文件夹中
      执行命令hadoop fs -ls /查看output输出文件夹有没有生成
      output文件夹
      执行命令hadoop fs -ls /output查看输出文件夹下执行的结果文件part-r-00000
      output文件夹下生成的文件
      执行命令hadoop fs -text /output/part-r-00000查看输出内容
      查看结果
      显示结果是按照字符的字段顺序排列的,每一行显示字符及出现次数。
  13. 停止hadoop
    执行stop-all.sh停止hadoop
    停止hadoop
    jps查看是否停止
    jps查看

此时hadoop2.6.4的伪分布式模式搭建成功。

0 0