运维笔记28 (在集群上部署ip,http,存储等)
来源:互联网 发布:windows程序开发模目录 编辑:程序博客网 时间:2024/06/15 07:01
概述:
之前我们已经将集群假设好了,也部署了fence断电管理,就差把服务放上去跑跑了,我们以http服务为例子,我们的这个服务需要的资源有ip,存储,服务软件,将这些部署到集群上之后,我们再测试一下我们部署的服务是不是高可用,今天的部署主要在web界面上进行。
1.添加切换服务的域
选择Add,添加一个域
首先定义名字,接下来的三个选项分别是按照结点优先级去进行服务,只在选定结点内切换服务,当从一个结点切换到另一个结点的时候不再自动切换回原先的结点。最下面是选择我们要添加的结点。
显示这样的标志表示添加成功。
2.添加资源
我们的http服务,需要三种资源,分别是ip,存储,服务,我们先不管存储,直接让存储在结点上,最后再搞定存储。
点击添加资源后,在这里选择添加一个ip资源。
ip资源的设置如上。
添加apache资源,我们选择用脚本的方式配置apache
这样就添加好了两个资源
3.整合资源组
最后一步,就是让两个资源组合起来成一个服务组,添加到服务组中。而且在server1和server2上安装http服务。
给这个服务组起名字,然后勾选服务自启动,而且服务独占,选择切换域名,选择切换策略(迁移)。
添加我们刚才配置的ip,http资源。
点击上面的开始按键就开启了这个服务组。
这时候回到命令行用命令查看状态。
[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 03:37:57 2017Member Status: Quorate Member Name ID Status ------ ---- ---- ------ server1.mo.com 1 Online, Local, rgmanager server2.mo.com 2 Online, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:apache server2.mo.com started命令显示两台机器正常,而且服务在server2上运行。
[root@server1 html]# clusvcadm -e apache这是自启并且开启apache服务
[root@server1 html]# clusvcadm -d apache关闭apache的自启动并且关闭服务,现在测试一下是否高可用。我们将server2上的http服务手动关闭。
[root@server2 html]# /etc/init.d/httpd stop这时候看下集群的状况。
[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 03:41:06 2017Member Status: Quorate Member Name ID Status ------ ---- ---- ------ server1.mo.com 1 Online, Local, rgmanager server2.mo.com 2 Online, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:apache server1.mo.com started已经将服务切换到了server1。
4.添加存储资源
真正环境下的服务,存储都不在结点机上,而是一台数据库服务器其他的服务器上,我们也是这样实验,现在使用server3作为存储服务器,做一个iscsi网络分享存储。
给虚拟机添加一块8G的硬盘
Disk /dev/vda: 8589 MB, 8589934592 bytes16 heads, 63 sectors/track, 16644 cylindersUnits = cylinders of 1008 * 512 = 516096 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x00000000
服务端scsi:
yum install scsi-target-utils.x86_64 0:1.0.24-10.el6修改配置文件/etc/tgt/targets.conf
<target iqn.2008-09.com.example:server.target1> backing-store /dev/vda initiator-address 172.25.9.20 initiator-address 172.25.9.21</target>然后启动服务,就将这个存储分享了
[root@server3 ~]# /etc/init.d/tgtd startStarting SCSI target daemon: [ OK ]查看一下是否分享成功
[root@server3 ~]# tgt-admin --showTarget 1: iqn.2008-09.com.example:server.target1 System information: Driver: iscsi State: ready I_T nexus information: LUN information: LUN: 0 Type: controller SCSI ID: IET 00010000 SCSI SN: beaf10 Size: 0 MB, Block size: 1 Online: Yes Removable media: No Prevent removal: No Readonly: No Backing store type: null Backing store path: None Backing store flags: LUN: 1 Type: disk SCSI ID: IET 00010001 SCSI SN: beaf11 Size: 8590 MB, Block size: 512 Online: Yes Removable media: No Prevent removal: No Readonly: No Backing store type: rdwr Backing store path: /dev/vda Backing store flags: Account information: ACL information: 172.25.9.20 172.25.9.21如上就分享成功了。
客户端iscsi:
在server1上
安装iscsi*,也就是iscsi-initiator-utils-6.2.0.873-10.el6.x8。
发现设备
[root@server1 html]# iscsiadm -m discovery -t st -p 172.25.9.22Starting iscsid: [ OK ] [ OK ]172.25.9.22:3260,1 iqn.2008-09.com.example:server.target1添加设备
[root@server1 html]# iscsiadm -m node -lLogging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] (multiple)Login to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] successful.现在查看客户端的设备,是否有分享出的设备,发现已经有了。
分区,格式化后就可使用了。之后是创建逻辑卷。
[root@server1 html]# pvcreate /dev/sdb1 dev_is_mpath: failed to get device for 8:17 Physical volume "/dev/sdb1" successfully created[root@server1 html]# pvs PV VG Fmt Attr PSize PFree /dev/sda2 VolGroup lvm2 a-- 19.51g 0 /dev/sdb1 lvm2 a-- 8.00g 8.00g这时切换到server2,进行设备发现等后,使用pvs,看下是否有物理卷。两边如果都发现了sdb1 8G的物理卷也就成功了。
继续创建vg,lv,在server1上
[root@server1 html]# vgcreate clustervg /dev/sdb1 Clustered volume group "clustervg" successfully created
[root@server1 html]# vgs VG #PV #LV #SN Attr VSize VFree VolGroup 1 2 0 wz--n- 19.51g 0 clustervg 1 0 0 wz--nc 8.00g 8.00g
[root@server1 html]# lvcreate -n lvclu -L 4g clustervg
[root@server1 html]# lvs LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert lv_root VolGroup -wi-ao---- 18.54g lv_swap VolGroup -wi-ao---- 992.00m lvclu clustervg -wi-a----- 4.00g存储创建好了,现在有两种方式来使用这个存储,一种是仍然使用Conga来用脚本管理,第二中是使用GFS文件系统,就不需要使用管理软件了。
第一种:
填写的信息如上所显示,然后将资源加入服务组,此时请注意服务的顺序,存储一定要在服务的前面,先启动存储才能有服务。
开启服务组测试,建议使用clusvcadm -e apache开启服务
[root@server1 html]# clustat Cluster Status for newmo @ Wed Feb 15 04:36:34 2017Member Status: Quorate Member Name ID Status ------ ---- ---- ------ server1.mo.com 1 Online, Local, rgmanager server2.mo.com 2 Online, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:apache server1.mo.com started服务已经开启,而且通过ip命令也可以看到ip被加到了这个机器上。
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 52:54:00:31:79:cb brd ff:ff:ff:ff:ff:ff inet 172.25.9.20/24 brd 172.25.9.255 scope global eth0 inet 172.25.9.101/24 scope global secondary eth0 inet6 fe80::5054:ff:fe31:79cb/64 scope link valid_lft forever preferred_lft forever这个台机器被添加了一个ip,就是我们集群加的ip。
- 运维笔记28 (在集群上部署ip,http,存储等)
- 在ubuntu上Kubernetes集群部署
- 如何在 Azure 上部署 Kubernetes 集群
- JAVAWEB部署在Terracotta集群上
- 在CentOS 7.2上部署Kubernetes集群
- 在rhel7上部署kubernetes1.6集群
- 集群上部署hadoop
- zookeeper入门(1)在单机上实现ZooKeeper伪机群/伪集群部署
- 在OpenStack(Mitaka版本)上通过Sahara部署Hadoop&Spark集群
- zookeeper入门(1)在单机上实现ZooKeeper伪机群/伪集群部署
- 在RHEL2.0 上部署Websphere5.0 集群环境
- 集群监控软件Ganglia在Ubuntu Server上的部署
- 如何在区域集群上部署 Oracle RAC 11.2.0.3
- 如何在区域集群上部署 Oracle RAC 11.2.0.3
- 在单机上实现ZooKeeper伪机群/伪集群部署
- 在集群上部署xgboost踩过的坑
- 在单机上实现ZooKeeper伪集群部署
- 在Docker上部署mongodb分片副本集群。
- java装箱与拆箱
- walle部署系统部署
- 最短路径算法之Floyd
- 嵌入式软件开发流程及中断调试方法
- vsftpd安装配置使用
- 运维笔记28 (在集群上部署ip,http,存储等)
- 文章标题
- Meanshift聚类算法
- error C3646: 未知重写说明符
- 解决异常:org.hibernate.HibernateException: Could not obtain transaction-synchronized Session for current
- Bi-shoe and Phi-shoe [欧拉函数][贪心]
- 使用分享多张图片到微信,QQ,微博
- 系统日志解决方案——slf4j
- 序列化接口的id有什么用