安装部署Hadoop 2.8.0(伪分布式)

来源:互联网 发布:土地确权登记软件 编辑:程序博客网 时间:2024/06/15 06:13

添加用户到sudo组:

命令:sudo adduser hadoopUser sudo。如果用户已经在此组内会提示。
添加组Hadoop,并将hadoopUser添加至组hadoop(groups命令可以查看用户所在的组):
su
addgroup hadoop
usermod -a -G hadoop hadoopUser

配置ssh免密码登录

安装ssh server:sudo apt-get install openssh-server
cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa # 会有提示,都按回车就可以
cat id_rsa.pub >> authorized_keys # 加入授权
使用ssh localhost试试能否直接登录

配置JDK

export JAVA_HOME=/usr/lib/jvm/java-8-oracle

export JRE_HOME=${JAVA_HOME}/jre

安装Hadoop2.8.0

下载文件,http://hadoop.apache.org/releases.html,选择2.8.0的binary格式下载。文件名为:hadoop2.8.0..tar.gz。
我们选择将 Hadoop 安装至/usr/local/
sudo tar -zxvf /home/hadoopUser/桌面/hadoop-2.8.0.tar.gz -C /usr/local
cd /usr/local/
sudo mv ./hadoop-2.8.0/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R hadoopUser ./hadoop # 修改文件权限
测试安装是否成功,如果出现命令帮助表示成功:/usr/local/hadoop/bin/hadoop

配置环境变量

vim ~/.bashrc(如果事其他的终端,写到相应的配纸文件中去例如我的事zsh 我就要改为~/.zshrc 不然会报错)
打开界面后,在之前配置的JAVA_HOME后面输入:
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=PATH:HADOOP_INSTALL/bin
export PATH=PATH:HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=HADOOPINSTALLexportHADOOPCOMMONHOME=HADOOP_INSTALL
export HADOOP_HDFS_HOME=HADOOPINSTALLexportYARNHOME=HADOOP_INSTALL
使设置立即生效:source ~/.bashrc
检查是否安装成功,执行命令,如果出现命令帮助表示成功:hdfs

配置伪分布式

切换至配置文件目录: cd /usr/local/hadoop/etc/hadoop
配置 core-site.xml,执行命令:nano core-site.xml。将文件中的替换为:

<configuration>    <property>        <name>hadoop.tmp.dir</name>        <value>file:/usr/local/hadoop/tmp</value>        <description>Abase for other temporary directories.</description>    </property>    <property>        <name>fs.defaultFS</name>        <value>hdfs://localhost:9000</value>    </property></configuration>

配置 hdfs-site.xml,执行命令:nano hdfs-site.xml,修改为:

<configuration>    <property>        <name>dfs.replication</name>        <value>1</value>    </property>    <property>        <name>dfs.namenode.name.dir</name>        <value>file:/usr/local/hadoop/tmp/dfs/name</value>    </property>    <property>        <name>dfs.datanode.data.dir</name>        <value>file:/usr/local/hadoop/tmp/dfs/data</value>    </property></configuration>
    关于Hadoop配置项的一点说明:

虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(官方教程如此),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。
配置yarn-site.xml,执行命令:nano yarn-site.xml,修改为:

<configuration>  <property>  <name>yarn.nodemanager.aux-services</name>  <value>mapreduce_shuffle</value>  </property>  <property>  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  <value>org.apache.hadoop.mapred.ShuffleHandler</value>  </property></configuration>

配置mapred-site.xml
从模板文件复制一个xml,执行命令:mv mapred-site.xml.template mapred-site.xml
执行命令:nano mapred-site.xml
将文件修改为

<configuration>  <property>  <name>mapreduce.framework.name</name>  <value>yarn</value>  </property><property><name>mapred.job.tracker</name><value>localhost:9001</value></property></configuration>

配置完成后,执行格式化:hdfs namenode -format。倒数第五行出现Exitting with status 0 表示成功,若为 Exitting with status 1 则是出错。
启动hadoop所有的进程:
start-all.sh

stophadoop所有的进程 stop-all.sh
查看各个进程是否正常启动,执行:jps。如果一切正常,将看到下列结果:

9632 SecondaryNameNode
9426 DataNode
10116 NodeManager
14216 Jps
9256 NameNode
9800 ResourceManager

【注意】若执行jps后提示:
程序 ‘jps’ 已包含在下列软件包中:
* default-jdk
* ecj
* gcj-4.6-jdk
* openjdk-6-jdk
* gcj-4.5-jdk
* openjdk-7-jdk
请尝试:sudo apt-get install <选定的软件包>

那么请执行下面命令,手动设置系统默认JDK:

sudo update-alternatives --install /usr/bin/jps jps /usr/lib/jvm/jdk1.7.0_79/bin/jps 1sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.7.0_79/bin/javac 300sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1.7.0_79/bin/java 300
原创粉丝点击