Hadoop-1.1.2 伪分布式安装与配置

来源:互联网 发布:蜡笔小新德朗医生 知乎 编辑:程序博客网 时间:2024/04/30 21:04

Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

         下面我们就来安装hadoop的伪分布式安装,gogogo

1.hadoop的伪分布安装


安装前准备:

      (1) 下载linux 版本的hadoop安装包

      (2)下载jdk 6.0以上的安装包

      (3)下载Vmware Station

      (4) 下载CentOS 镜像文件

1.1 设置ip地址

执行命令service network restart

验证:ifconfig
1.2 关闭防火墙
执行命令service iptables stop
验证:service iptables status
1.3关闭防火墙的自动运行
执行命令chkconfig iptables off
验证:chkconfig --list | grep iptables
1.4 设置主机名
执行命令(1)hostname chaoren
(2)vi /etc/sysconfig/network
1.5 ip与hostname绑定
执行命令vi /etc/hosts
验证:ping chaoren
1.6 设置ssh免密码登陆
执行命令(1)ssh-keygen -t rsa
(2)cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
验证:ssh chaoren
1.7 安装jdk
执行命令(1)cd /usr/local
(2)chmod u+x jdk-6u24-linux-i586.bin
(3)./jdk-6u24-linux-i586.bin
(4)mv jdk-1.6.0_24  jdk
(5)vi /etc/profile 增加内容如下:
export JAVA_HOME=/usr/local/jdk
export PATH=.:$JAVA_HOME/bin:$PATH
(6)source /etc/profile
验证:java -version
1.8 安装hadoop
执行命令(1)tar -zxvf hadoop-1.1.2.tar.gz
(2)mv hadoop-1.1.2 hadoop
(3)vi /etc/profile 增加内容如下:
export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
(4)立即生效  source /etc/profile

1.9 配置hadoop

(1)修改conf目录下的配置文件hadoop-env.sh

 export JAVA_HOME=/usr/local/jdk

 (2)core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-1.2.1/tmp</value>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://bigdata:9000</value>
    </property>
</configuration>

 (3)hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
<name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

(4)mapred-site.xml

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>bigdata:9001</value>
    </property>
</configuration>


1.10 启动验证:
                        (1)格式化hadoop namenode -format
        (2)start-all.sh
                        (3)执行命令jps 如果看到5个新的java进程,分别是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker
 (4)在浏览器查看,http://chaoren:50070  http://chaoren:50030 
                        (5)运行hadoop自带的示例程序单词计数,文本需自行编辑,并上传hdfs
                             hadoop  jar  hadoop-example.1.1.2.jar  wordcount   /in/hello.txt  /out/wordcount
1.10 启动时没有NameNode的可能原因:
(1)没有格式化
(2)环境变量设置错误
(3)ip与hostname绑定失败
1.11 启动,关闭出现WARN的警告原因

         在/etc/profile加上  export HADOOP_HOME_WARN_SUPPRESS=1

0 0
原创粉丝点击