hadoop从零开始--linux常见错误及hadoop配置相关

来源:互联网 发布:ubuntu安装后分区 编辑:程序博客网 时间:2024/05/21 06:11

linux常见错误及hadoop配置相关

批量自动删除rpm包:
rpm -qa | grep mysql | while read c; do rpm -e $c --nodeps; done

minimal最小化安装
eth0默认没有自启用
修改配置文件
onboot=true

修改静态地址后发现无法ping外网
需要设置网关
route add default gw 192.168.33.1
添加nameserver
vi /etc/resolv.conf
nameserver 192.168.33.1

挂载光盘
mkdir /mnt/cdrom
mount -t iso9660 -o ro /dev/cdrom/ /mnt/cdrom


解决克隆后eth0不见的问题

直接修改  /etc/sysconfig/network-script/ifcfg-eth0
删掉UUID  HWADDR
配置静态地址
然后:
rm -rf  /etc/udev/rules.d/70-persistent-net.rules
然后 reboot

*****查看主机名
hostname
****修改主机名(重启后无效)
hostname hadoop
*****修改主机名(重启后永久生效)
vi /ect/sysconfig/network
****修改IP(重启后无效)
ifconfig eth0 192.168.12.22

****修改IP(重启后永久生效)
vi /etc/sysconfig/network-scripts/ifcfg-eth0



******配置主机之间的免密ssh登陆

假如 A  要登陆  B
在A上操作:
%%首先生成密钥对
ssh-keygen   (提示时,直接回车即可)
%%再将A自己的公钥拷贝并追加到B的授权列表文件authorized_keys中
ssh-copy-id   B


0 0
原创粉丝点击