批量添加hadoop节点,初始化hadoop机器

来源:互联网 发布:系统修复软件 编辑:程序博客网 时间:2024/06/06 05:56

全部内容如下:

authorized_keys<span style="white-space:pre"></span>-- CDH主节点的keyhosts<span style="white-space:pre"></span>-- 所有机器的hosts配置init_hadoop.sh<span style="white-space:pre"></span>-- 分发其他文件到各个节点init_hdp.sh<span style="white-space:pre"></span><span style="font-family: Arial, Helvetica, sans-serif;">-- </span><span style="font-family: Arial, Helvetica, sans-serif;">为hadoop用户生成key</span>init_root.sh<span style="white-space:pre"></span>-- 初始化系统变量jdk-7u65-linux-x64.rpm<span style="white-space:pre"></span>-- Java环境send_hosts.sh<span style="white-space:pre"></span>-- 分发hosts文件,这里主要是分发之前已经安装好的节点


init_hadoop.sh
for arg in $* ; do    ping -c 1 $arg  || continue     scp -o StrictHostKeyChecking=no -r ./jdk-7u65-linux-x64.rpm  $arg:/tmp     scp -o StrictHostKeyChecking=no -r ./authorized_keys  $arg:/tmp     scp -o StrictHostKeyChecking=no -r ./init_root.sh  $arg:/tmp     scp -o StrictHostKeyChecking=no -r ./init_hdp.sh  $arg:/tmp     scp -o StrictHostKeyChecking=no -r ./hosts  $arg:/tmp     ssh -o StrictHostKeyChecking=no -t $arg "sudo -i"done

init_hdp.sh

cd ~ssh-keygencp /tmp/authorized_keys /home/hadoop/.ssh/chmod 755 ~/.sshchmod 644 /home/hadoop/.ssh/authorized_keys

init_root.sh

cp -R /tmp/hosts /etc/rpm -ivh /tmp/jdk-7u65-linux-x64.rpmecho 'JAVA_HOME=/usr/java/default' >> /etc/profileservice ntpd startsysctl vm.swappiness=0echo 'vm.swappiness=0' >> /etc/sysctl.confuseradd hadoopsu hadoop

现在跳转机上执行init_hadoop.sh把各个文件分发下去,然后sudo -i 可以把当前连接转到对应机器上。

然后cd /tmp/

sh init_root.sh

sh init_hdp.sh




0 0
原创粉丝点击