hadoop的安装

来源:互联网 发布:sap84软件购买 编辑:程序博客网 时间:2024/05/16 19:38
1.准备3台linux服务器
主机名分别是:node1 node2 node3
修改主机名方法 :
vi /etc/sysconfig/network
HOSTNAME=node1
修改hosts
vi /etc/hosts 
::1 localhost6.localdomain6 localhost6
192.168.1.212 node1
192.168.1.215 node2
192.168.1.213 node3


2.安装:tar -zxvf hadoop-1.2.1.tar.gz
创建一个软连接:ln -sf /root/hadoop-1.2.1 /home/hadoop-1.2
cd /home/hadoop-1.2/conf


vi core-site.xml
<configuration>
配置namenode的主机和访问地址
   <property>
         <name>fs.default.name</name>
         <value>hdfs://node1:9000</value>
    </property>
配置hdfs的虚拟目录
    <property>
         <name>hadoop.tmp.dir</name>
         <value>/opt/hadoop-1.2</value>
    </property>
</configuration>
vi hdfs-site.xml
<configuration>
配置datanode的副本数
     <property>
         <name>dfs.replication</name>
         <value>2</value>
     </property>
</configuration>
配置datanode副本的主机
vi slaves
node2
node3
配饰secondary namenode
vi masters
node2
配置免密码登录
生成秘钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
cd /.ssh
ls 
将公钥放到别的服务器
scp id_dsa.pub root@192.168.1.214:~
cat id_dsa.pub >> ~/.ssh/authorized_keys
scp id_dsa.pub root@192.168.1.213:~
cat id_dsa.pub >> ~/.ssh/authorized_keys
配置javahome
cd ../conf/
vi hadoop-env.sh


配置文件复制到其他服务器
scp ./* root@192.168.1.214:/home/hadoop-1.2/conf/
scp ./* root@192.168.1.213:/home/hadoop-1.2/conf/
格式化node1
./hadoop namenode -format
启动dfs
./start-dfs.sh
关闭
./stop-dfs.sh
0 0
原创粉丝点击