Hadoop2.5.1伪分布式安装记录,Centos6.4系统,wordcount运行测试
来源:互联网 发布:极客范树莓派网络配置 编辑:程序博客网 时间:2024/04/28 03:24
一、准备工作(root用户)
1.关闭防火墙
关闭防火墙:service iptables stop关闭开机启动:chkconfig iptablesoff
2.创建用户
创建hadoop用户:useradd hadoop密码:passwd hadoop加入sudoers:vim /etc/sudoers ,在root下一行写入hadoop ALL=(ALL) ALL
二、安装JDK1.7(root用户)
1.查看已装JDK
rpm -qa |grep javarpm -qa |grep jdk
2.卸载上一步显示的程序
rpm -e --nodeps 程序名 (如:rpm -e --nodeps tzdata-java-2013g-1.el6.noarchrpm -e --nodepsjava-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64rpm -e --nodepsjava-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64)
2.安装JDK1.7
tar -zxf jdk-7u60-linux-x64.tar.gz 直接解压到/home/hadoop(username)/目录下并且更改文件名字为java1.7
3.修改环境变量
修改 /etc/profile文件,在文件末尾加入以下几行:exportJAVA_HOME=/home/hadoop/java1.7exportJRE_HOME=/home/hadoop/java1.7/jreexportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATHexportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
4.使刚修改的环境变量生效
source /etc/profile
5.验证JDK是否安装成功
java -versionecho $JAVA_HOME
三、SSH无密码登录(hadoop用户)
1.生成密钥
ssh-keygen -t dsa (然后一直按回车即可,会自动生成.ssh文件夹,内有两个文件)
2.生成authorized_keys
进入/home/hadoop/.ssh目录cat id_dsa.pub >> authorized_keys
3.给authorized_keys赋予执行权限
chmod 600authorized_keys
3.测试是否能够无密码登录本地
ssh localhost如果不用再次输入密码,说明成功
四、安装hadoop(hadoop用户)
1.解压到指定目录(以在/home/hadoop目录为例)
tar -zxvf hadoop-2.5.1.tar.gz
2.配置文件
2.1.core-site.xml文件在<configuration>和</configuration>之间加入如下内容<property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property> <property><name>hadoop.tmp.dir</name><value>/home/hadoop/hadoopfile/tmp</value></property> <property><name>fs.trash.interval</name><value>1440</value></property></configuration>2.2.hdfs-site.xml文件<configuration> <property> <name>dfs.replication</name> <value>1</value> </property></configuration> 2.3.mapred-site.xml文件:<property><name>mapreduce.framework.name</name> <value>yarn</value> </property>2.4.文件yarn-site.xml:<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property> 2.5.mapred-env.sh文件export JAVA_HOME=/home/hadoop/java1.7export HADOOP_MAPRED_PID_DIR=/home/hadoop/hadoopfile/tmp2.6.hadoop-env.sh文件export JAVA_HOME=/home/hadoop/java1.7exportHADOOP_PID_DIR=/home/hadoop/hadoopfile/tmpexportHADOOP_SECURE_DN_PID_DIR=/home/hadoop/hadoopfile/tmp
3.将hadoop加入环境变量
sudovim /etc/profile加入如下两行exportHADOOP_HOME=/home/hadoop/hadoop-2.5.1exportPATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
五、启动(hadoop用户)
1.格式化namenode
hdfsnamenode -format
2.启动dfs
Start-dfs.sh
或者
hadoop-daemon.shstart namenodehadoop-daemon.shstart datanode
通过jps能够验证是否启动成功
3.启动yarn
start-yarn.sh输入jps验证
3.在网页端查看
输入IP:50070(例如:http://192.168.56.103:50070/)
六、运行wordcount例子(hadoop用户)
Wordcount例子在/home/hadoop/hadoop-2.5.1/share/hadoop/mapreduce中的
hadoop-mapreduce-examples-2.5.1.jar
1.上传本地文件至hdfs
hadoop fs -put 文件 /test (如:hadoop fs -put 1 /test是将本地的文件1上传至hdfs中的/test目录下)
2.运行
hadoopjar hadoop-mapreduce-examples-2.5.1.jar wordcount /test/1 /test/output/1
注意:/test/output/1必须是不存在的目录
</pre><h2>1.查看结果</h2><p align="left"></p><pre name="code" class="html">hadoopfs -cat /test/output/1/part-r-00000
0 0
- Hadoop2.5.1伪分布式安装记录,Centos6.4系统,wordcount运行测试
- Hadoop2.5.1伪分布式安装记录,Centos6.4系统,wordcount运行测试
- 大数据之Hadoop平台(二)Centos6.5(64bit)Hadoop2.5.1伪分布式安装记录,wordcount运行测试
- centos6.4+hadoop2.2.0 spark伪伪分布式安装
- Hadoop:Centos6.5(64bit)Hadoop2.5.1伪分布式安装记录
- Hadoop2.0入门——伪分布式运行WordCount
- Hadoop2.4.1伪分布式安装过程记录
- hadoop2伪分布式的安装及测试
- CentOS6.3安装Hadoop2.6.0_伪分布式配置
- Hadoop2伪分布式安装
- Hadoop2 伪分布式安装
- hadoop2.4编译安装+wordcount测试
- Hadoop2.5.1 运行wordcount
- 在CentOS6.4 下以单机伪分布式模式安装hadoop2.7.1
- hadoop2.7.1伪分布式集群中使用命令行运行WordCount例子~~~
- hadoop2.2 在centos6.4上建立伪分布式集群
- CentOS6 hadoop2.4完全分布式安装文档
- 安装伪分布式Hadoop系统与WordCount程序实验
- activex com 组件开发二 安全接口的实现
- 一道笔试题 关于static
- JavaScript快速排序算法QuickSort实现
- Access to the path '' is denied.解决方案
- 服务器推送
- Hadoop2.5.1伪分布式安装记录,Centos6.4系统,wordcount运行测试
- 2014.9.27模拟赛【栅栏迷宫】
- 消除SDK更新时的“https://dl-ssl.google.com refused”错误
- javascript 将 ThinkPHP 分页自动转换为 bootstrap 分页
- grep参数
- 4种必须知道的Android屏幕自适应解决方案
- 多仓库代码管理器Repo的安装,使用以及服务器搭建
- win7 32位下 QT4.8.6 从安装配置到静态编译
- C/C++ restrict修饰符