Ubuntu14搭建Hadoop2.5.2伪分布式开发环境

来源:互联网 发布:ntfs for mac激活不了 编辑:程序博客网 时间:2024/06/14 05:56

环境说明

  • linux版本:ubuntu-14.04.1-desktop-amd64
    下载地址:http://www.ubuntu.com/download/desktop
  • hadoop版本:hadoop-2.5.2
    下载地址:http://hadoop.apache.org/releases.html
  • java版本:jdk1.7.0_67
    下载地址:http://pan.baidu.com/s/1bncVBmn

搭建过程

  • 安装vmware
    此步骤不介绍了
  • 安装ubuntu操作系统

    1. 网络模式选择NAT,别的都按需求设置就行,安装成功虚拟机自动就能连接网络了(设置ip动态获取即可)。
    2. 物理主机就可以连接到虚拟机,需要保证虚拟机安装了sshd并且服务开启,防火墙已关闭。

      sudo apt-get install openssh-serversudo apt-get install openssh-clientsudo /etc/init.d/ssh startps -ef | grep ssh
    3. 安装后添加hadoop用户组和用户并添加root用户权限

      sudo addgroup hadoopsudo adduser -ingroup hadoop hadoopsudo vi /etc/sudoers
    4. 设置hostname为hadoop,注意不能保留127.0.0.1 localhost这个

      vi /etc/hosts192.168.233.3 hadoop
  • 配置ssh无密码登陆

ssh-keygen -t rsa -P ""cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keysssh hadoop
  • 安装java

1.解压

tar zxvf jdk-7u67-linux-x64.tar.gz

2.配置环境变量

vi ~/.profileexport JAVA_HOME=/home/hadoop/jdk1.7.0_67export PATH=$JAVA_HOME/bin:$PATH
  • 安装hadoop

1.解压,注意文件属组

tar zxvf hadoop-2.5.2.tar.gz

2.配置环境变量

#HADOOP VARIABLES STARTexport HADOOP_HOME=/home/hadoop/hadoop-2.5.2export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbinexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"#HADOOP VARIABLES END

3.修改配置文件
/home/hadoop/hadoop-2.5.2/etc/hadoop/core-site.xml增加

<property>   <name>fs.default.name</name>   <value>hdfs://hadoop:9000</value></property><property>   <name>hadoop.tmp.dir</name>    <value>/home/hadoop/hadoop-2.5.2/hadoop-${user.name}</value></property>

/home/hadoop/hadoop-2.5.2/etc/hadoop/hdfs-site.xml增加

<property>    <name>dfs.namenode.name.dir</name>    <value>file:/home/hadoop/dfs/name</value></property><property>    <name>dfs.namenode.data.dir</name>    <value>file:/home/hadoop/dfs/data</value></property><property>    <name>dfs.replication</name>    <value>1</value> </property><property>    <name>dfs.permissions</name>    <value>false</value></property><property>    <name>dfs.web.ugi</name>    <value>jack,supergroup</value></property>

从模板copy一个/home/hadoop/hadoop-2.5.2/etc/hadoop/mapred-site.xml增加

<property>    <name>mapreduce.framework.name</name>    <value>yarn</value>    <final>true</final></property>

/home/hadoop/hadoop-2.5.2/etc/hadoop/yarn-site.xml增加

<property>    <name>yarn.nodemanager.aux-services</name>    <value>mapreduce_shuffle</value></property><property>    <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>    <value>org.apache.hadoop.mapred.ShuffleHandler</value></property><property>    <name>yarn.resourcemanager.hostname</name>    <value>hadoop</value></property>

4.启动hadoop

cd /home/hadoop/hadoop-2.5.2./bin/hdfs namenode -format./sbin/start-all.sh
  • 运行wordcount

1.dfs上创建input目录

bin/hadoop fs -mkdir -p input

2.把hadoop目录下的README.txt拷贝到dfs新建的input里

bin/hadoop fs -copyFromLocal README.txt input

3.运行WordCount

bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.5.2-sources.jar org.apache.hadoop.examples.WordCount input output

4.运行完毕后,查看单词统计结果

bin/hadoop fs -cat output/*

假如程序的输出路径为output,如果该文件夹已经存在,先删除

bin/hadoop dfs -rm -r output

参考链接 http://www.cnblogs.com/huligong1234/p/4136331.html

0 0
原创粉丝点击