系统的对单机版hadoop进行配置和安装,调试!!!
来源:互联网 发布:js获取application值 编辑:程序博客网 时间:2024/06/05 09:40
前置条件:
1、ubuntu12..4安装成功(个人认为不必要花太多时间在系统安装上,我们不是为了装机而装机的)
2、jdk安装成功(jdk1.6.0_23for linux版本,图解安装过程http://freewxy.iteye.com/blog/882784 )
3、下载hhadoop0.21.0.tar.gz(http://apache.etoak.com//hadoop/core/hadoop-0.21.0/ )
安装hadoop
1、首先将hadoop0.21.0.tar.gz复制到usr下的local文件夹内,(sudo cp hadoop路径 /usr/local)如图1
2、进入到local目录下,解压hadoop0.21.0.tar.gz,如图2
3、为方便管理和hadoop版本升级,将解压后的文件夹改名为hadoop,如图3
方便起见,新增hadoop的组和其同名用户:
1、创建一个名字为hadoop的用户组,如图4
2、创建一个用户名为hadoop的用户,归到hadoop组下,如图5(一些信息可以不填写,直接按enter键即可)如图5
3、(1)添加用户权限:打开etc下的sudoers文件,添加如下(2)命令,如图6
--------------------------------------------------------------------------------------------------------------------------------
(另一种方法是先切换到root用户下,然后修改sudoers的权限,但这样操作一定要小心谨慎,修改权限后要将文件改回只读,否则悲剧啦啦啦,我们一票人死在这点上好多次)
(2)在root ALL =(ALL) ALL 下面添加如下文字:
hadoop ALL = (ALL) ALL
如图7
-----------------------------------------------------------------------------
----------------------------------------------------------------------------------------------
(/etc/sudoers文件是用于sudo命令执行时审核执行权限用的)
执行命令:$:sudo chown hadoop /usr/local/hadoop(将hadoop文件夹的权限赋给hadoop用户)
安装ssh (需联网):(了解ssh:http://freewxy.iteye.com/blog/910820)
1、安装openssh_server:如图8
2、创建ssh-key,为rsa,如图9
填写key的保存路径,如图10填写
3、添加ssh-key到受信列表,并启用此ssh-key,如图11
4、验证ssh的配置,如图12
配置hadoop
0、浏览hadoop文件下都有些什么东西,如图13
1、打开conf/hadoop-env.sh,如图14
配置conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径),如图15
---------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------
2、打开conf/core-site.xml
配置,如下内容:
- <configuration>
- <property>
- <name>fs.default.name</name>
- <value>hdfs://localhost:9000</value>
- </property>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/home/hadoop/tmp</value>
- </property>
- </configuration>
3、打开conf目录下的mapred-site.xml
配置如下内容:
- <configuration>
- <property>
- <name>mapred.job.tracker</name>
- <value>localhost:9001</value>
- </property>
- </configuration>
运行测试 :
1、改变用户,格式化namenode,如图18
可能遇到如下错误(倒腾这个过程次数多了),如图19
执行如图20,再次执行如图18
2、启动hadoop,如图21
3、验证hadoop是否成功启动,如图22
运行自带wordcount例 子(jidong啊)
1、准备需要进行wordcount的文件,如图23(在test.txt中随便输入字符串,保存并退出)
-------------------------------------------------------------------------------------------
2、将上一步中的测试文件上传到dfs文件系统中的firstTest目录下,如图24(如果dfs下不包含firstTest目录的话自动创建一个同名目录,使用命令:bin/hadoop dfs -ls查看dfs文件系统中已有的目录)
3、执行wordcount,如图25(对firstest下的所有文件执行wordcount,将统计结果输出到result文件夹中,若result文件夹不存在则自动创建)
4、查看结果,如图26
单机版搞定~~
- 系统的对单机版hadoop进行配置和安装,调试!!!
- Hadoop:Hadoop单机伪分布式的安装和配置
- Hadoop:Hadoop单机伪分布式的安装和配置
- hadoop单机安装配置
- Ubuntu下安装单机版Hadoop的配置
- Hadoop单机模式的配置与安装
- mac系统里spark单机环境的安装和配置
- Hadoop单机版安装,配置,运行
- Hadoop初识--Hadoop单机模式安装和环境配置
- Ubuntu系统下的Hadoop集群(1)_Hadoop安装教程_单机/伪分布式配置
- Zookeeper的单机安装和调试
- Hadoop单机安装配置过程
- Hadoop单机版安装
- hadoop单机版安装
- 单机版hadoop安装
- hadoop单机版安装
- Hadoop单机版安装
- hadoop单机版安装
- Sap软件开发职位面试全过程
- Codeforces Round #234 (Div. 2) :A. Inna and Choose Options
- Hibernate持久化对象生命周期之实战探索
- 数据库新技术发展时间轴(1994-2014)
- firefly学习笔记之C客户端与Python服务器交互(3)
- 系统的对单机版hadoop进行配置和安装,调试!!!
- hexo博客的优化与配置——添加统计代码
- 走地板 深搜基础
- mysql5.5异常: java.sql.SQLException: Packet for query is too large (1055975 > 1048576).
- linux,apache,php,mysql常用的查看版本信息的方法
- 【leetcode】Candy(python)
- sgu112 高精度大整数乘方
- Java hashCode 和 equals 方法
- Web漏洞检测及修复