运维笔记28 (在集群上部署ip,http,存储等)

来源:互联网 发布:windows程序开发模目录 编辑:程序博客网 时间:2024/06/15 07:01

概述:

       之前我们已经将集群假设好了,也部署了fence断电管理,就差把服务放上去跑跑了,我们以http服务为例子,我们的这个服务需要的资源有ip,存储,服务软件,将这些部署到集群上之后,我们再测试一下我们部署的服务是不是高可用,今天的部署主要在web界面上进行。

1.添加切换服务的域

选择Add,添加一个域

首先定义名字,接下来的三个选项分别是按照结点优先级去进行服务,只在选定结点内切换服务,当从一个结点切换到另一个结点的时候不再自动切换回原先的结点。最下面是选择我们要添加的结点。

显示这样的标志表示添加成功。

2.添加资源

我们的http服务,需要三种资源,分别是ip,存储,服务,我们先不管存储,直接让存储在结点上,最后再搞定存储。

点击添加资源后,在这里选择添加一个ip资源。

ip资源的设置如上。


添加apache资源,我们选择用脚本的方式配置apache

这样就添加好了两个资源


3.整合资源组

最后一步,就是让两个资源组合起来成一个服务组,添加到服务组中。而且在server1和server2上安装http服务。

给这个服务组起名字,然后勾选服务自启动,而且服务独占,选择切换域名,选择切换策略(迁移)。

添加我们刚才配置的ip,http资源。

点击上面的开始按键就开启了这个服务组。

这时候回到命令行用命令查看状态。

[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 03:37:57 2017Member Status: Quorate Member Name                    ID   Status ------ ----                    ---- ------ server1.mo.com                     1 Online, Local, rgmanager server2.mo.com                     2 Online, rgmanager Service Name          Owner (Last)          State          ------- ----          ----- ------          -----          service:apache        server2.mo.com        started   
命令显示两台机器正常,而且服务在server2上运行。

[root@server1 html]# clusvcadm -e apache
这是自启并且开启apache服务

[root@server1 html]# clusvcadm -d apache
关闭apache的自启动并且关闭服务,现在测试一下是否高可用。我们将server2上的http服务手动关闭。

[root@server2 html]# /etc/init.d/httpd stop
这时候看下集群的状况。

[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 03:41:06 2017Member Status: Quorate Member Name                    ID   Status ------ ----                    ---- ------ server1.mo.com                     1 Online, Local, rgmanager server2.mo.com                     2 Online, rgmanager Service Name          Owner (Last)          State          ------- ----          ----- ------          -----          service:apache        server1.mo.com        started  
已经将服务切换到了server1。

4.添加存储资源

真正环境下的服务,存储都不在结点机上,而是一台数据库服务器其他的服务器上,我们也是这样实验,现在使用server3作为存储服务器,做一个iscsi网络分享存储。

给虚拟机添加一块8G的硬盘

Disk /dev/vda: 8589 MB, 8589934592 bytes16 heads, 63 sectors/track, 16644 cylindersUnits = cylinders of 1008 * 512 = 516096 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000

服务端scsi:

yum install scsi-target-utils.x86_64 0:1.0.24-10.el6 
修改配置文件/etc/tgt/targets.conf

<target iqn.2008-09.com.example:server.target1>    backing-store /dev/vda    initiator-address 172.25.9.20    initiator-address 172.25.9.21</target>
然后启动服务,就将这个存储分享了
[root@server3 ~]# /etc/init.d/tgtd startStarting SCSI target daemon:                               [  OK  ]
查看一下是否分享成功

[root@server3 ~]# tgt-admin --showTarget 1: iqn.2008-09.com.example:server.target1    System information:        Driver: iscsi        State: ready    I_T nexus information:    LUN information:        LUN: 0            Type: controller            SCSI ID: IET     00010000            SCSI SN: beaf10            Size: 0 MB, Block size: 1            Online: Yes            Removable media: No            Prevent removal: No            Readonly: No            Backing store type: null            Backing store path: None            Backing store flags:         LUN: 1            Type: disk            SCSI ID: IET     00010001            SCSI SN: beaf11            Size: 8590 MB, Block size: 512            Online: Yes            Removable media: No            Prevent removal: No            Readonly: No            Backing store type: rdwr            Backing store path: /dev/vda            Backing store flags:     Account information:    ACL information:        172.25.9.20        172.25.9.21
如上就分享成功了。

客户端iscsi:

在server1上

安装iscsi*,也就是iscsi-initiator-utils-6.2.0.873-10.el6.x8。

发现设备

[root@server1 html]# iscsiadm -m discovery -t st -p 172.25.9.22Starting iscsid:                                           [  OK  ]                                                       [  OK  ]172.25.9.22:3260,1 iqn.2008-09.com.example:server.target1
添加设备

[root@server1 html]# iscsiadm -m node -lLogging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] (multiple)Login to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] successful.
现在查看客户端的设备,是否有分享出的设备,发现已经有了。

分区,格式化后就可使用了。之后是创建逻辑卷。

[root@server1 html]# pvcreate /dev/sdb1  dev_is_mpath: failed to get device for 8:17  Physical volume "/dev/sdb1" successfully created[root@server1 html]# pvs  PV         VG       Fmt  Attr PSize  PFree  /dev/sda2  VolGroup lvm2 a--  19.51g    0   /dev/sdb1           lvm2 a--   8.00g 8.00g
这时切换到server2,进行设备发现等后,使用pvs,看下是否有物理卷。两边如果都发现了sdb1 8G的物理卷也就成功了。

继续创建vg,lv,在server1上

[root@server1 html]# vgcreate clustervg /dev/sdb1  Clustered volume group "clustervg" successfully created
[root@server1 html]# vgs  VG        #PV #LV #SN Attr   VSize  VFree  VolGroup    1   2   0 wz--n- 19.51g    0   clustervg   1   0   0 wz--nc  8.00g 8.00g

[root@server1 html]# lvcreate -n lvclu -L 4g clustervg
[root@server1 html]# lvs  LV      VG        Attr       LSize   Pool Origin Data%  Move Log Cpy%Sync Convert  lv_root VolGroup  -wi-ao----  18.54g                                               lv_swap VolGroup  -wi-ao---- 992.00m                                               lvclu   clustervg -wi-a-----   4.00g         
存储创建好了,现在有两种方式来使用这个存储,一种是仍然使用Conga来用脚本管理,第二中是使用GFS文件系统,就不需要使用管理软件了。

第一种:

 

填写的信息如上所显示,然后将资源加入服务组,此时请注意服务的顺序,存储一定要在服务的前面,先启动存储才能有服务

开启服务组测试,建议使用clusvcadm -e apache开启服务

[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 04:36:34 2017Member Status: Quorate Member Name                    ID   Status ------ ----                    ---- ------ server1.mo.com                     1 Online, Local, rgmanager server2.mo.com                     2 Online, rgmanager Service Name          Owner (Last)          State          ------- ----          ----- ------          -----          service:apache        server1.mo.com        started 
服务已经开启而且通过ip命令也可以看到ip被加到了这个机器上

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000    link/ether 52:54:00:31:79:cb brd ff:ff:ff:ff:ff:ff    inet 172.25.9.20/24 brd 172.25.9.255 scope global eth0    inet 172.25.9.101/24 scope global secondary eth0    inet6 fe80::5054:ff:fe31:79cb/64 scope link        valid_lft forever preferred_lft forever
这个台机器被添加了一个ip,就是我们集群加的ip


4 0