Day05 高可用集群2

来源:互联网 发布:orbslam2 kitti数据集 编辑:程序博客网 时间:2024/06/06 19:24
Tips:libvirtd是控制virt-manager是否可用
systemctl start libvirtd开启
systemctl stop libvirtd 关闭
virsh  list 查看运行中的虚拟机
netstat  -antlp 查看端口
df  查看是否挂载
df  -h  查看是否挂载,显示时以兆数显示
fdisk  -l  查看硬盘及分区信息
fence-admin  -s  
   
1.fence
(1)yum  search  fence-virtd
(2)在真机上下载fence-virtd
fence-virtd-0.3.2-2.el7.x86_64
fence-virtd-libvirt-0.3.2-2.el7.x86_64
fence-virtd-multicast-0.3.2-2.el7.x86_64
(3)fence_virtd -c
(4)注意安装时的参数:
模块寻找路径
multicast多广播模式
广播IP地址
广播IP端口 1229
I nterface:br0  (不是br0可以直接修改)
Key文件路径  /etc/cluster/fence_xvm.key
Backend module:libvirt
(5)创建目录 mkdir  /etc/cluster
(6)dd  if=/dev/urandom  of=/etc/cluster/fence_xvm.key  bs=128 count=1  
(7)进入/etc/cluster目录下
要有fence_xvm.key
重启服务  systemctl  restart  fence_virtd
scp  fence_xvm.key  172.25.15.1:/etc/cluster 
(如果不能scp需要cd  vim .ssh/known_hosts  连不上哪个就删哪个)
cd  -回到上一次目录
scp  fence_xvm.key  172.25.15.4:/etc/cluster 

确保/etc/fence_virt.conf如图所示


(5)浏览器访问https://172.25.15.1:8084

添加Add Fence  Device


选择fence


提交后选择ser1

添加fencef方式


添加fence接口


Domain:保守起见选择uuid,从virt-manager的相应虚拟机上找

提交,ser4同理

(5)测试:ser1、ser4均可

Fence_node  ser4  or   ip  link set  eth0  down

 

2.Failove Domains和Resources与Service Group


No failback可选

Server1的优先级高于Server4


添加IP


添加HTTP服务

在server1和server4中yum install  -y  httpd

/etc/init.d/httpd  start


在ser1和ser4中编写测试页

cd /var/www/html

vim index.html

 

2.再开启一台虚拟机ser2

给够8G虚拟空间

(1)在ser2下载yum install  -y  scsi-*

vim/etc/tgt/targets.conf


/etc/init.d/tgtd start
fence-admin  -s
(2)在ser1和ser4中下载yum  install  -y  iscsi-*
iscsiadm  -m  discovery  -t  st  -p  172.25.15.2
iscsiadm  -m node  -l
(3)磁盘分区  fdisk  -cu  /dev/sda
n
P
d
t
8e
P
w
pvcreate  /dev/sda1
vgcreate  clustervg  /dev/sda1
lvcreate  -L  +2G  -n  demo  clustervg
vgs   lvs   cat/proc/partitions确保ser1和ser4中的内容都一致
partprobe   同步分区表
4.在ser1中停掉apache服务
clusvacadm  -d  apache
在ser4中格式化  mkfs.ext4  /dev/clustervg/demo



在ser4中开启apache服务  clusvadm  -e apache

 cd /var/www/html

vim  index.html

clusvadm  -r apache  -m  server1 让原本跑在server1上的服务跑到server4上

4.remove掉webdata

然后delete

在ser1中  lvextend -L  +2G  /dev/clustervg/demo

df/df  -h

mkfs.gfs2  -j 3  -p  lock_dlm -t  westos1:mygfs2  /dev/clustervg/demo

在ser1、ser4均执行  mount  /dev/clustervg/demo  /var/www/html

cd  /var/www/html 

vim  index.html

vim  /etc/fstab

查看uuid blkid


mount  -a

gfs2_tool  sb /dev/clustervg/demo  all

gfs2_tool  journals /dev/clustervg/demo 

gfs2_grow  /dev/clustervg/demo 

4.在ser1中停掉apache服务

选中server1和server4离开集群  leave cluster

关闭所有相关服务 chkconfig clvmd/modclusterd/rgmanager/ricci/luci/ off

查看服务是否关闭 chkconfig clvmd/modclusterd/rgmanager/ricci/luci/ --list

删除server1和server4的节点

iscsiadm  -m node  -u  卸载

iscsiadm  -m node  -o  delete 删除

重启ser1和ser4

在ser2中/etc/init.d/tgtd  stop   然后poweroff

删除套件完毕

 

 


原创粉丝点击