Suse集群测试总结

来源:互联网 发布:keynote是什么软件 编辑:程序博客网 时间:2024/06/06 05:24

前面已经写过一篇Suse集群的文章,最近又在测试集群的资源切换,遭遇BUG,对以前模糊不清的问题理解得更清晰了,简单记录一下结论:

1、规划时需要注意的问题

1)心跳线应该至少2路,防止出现脑裂现象;

2)业务网线,用双网卡绑定一个IP地址,实现冗余;

2、资源切换遇到的BUG

1)切换过程及问题:

A机业务网卡故障,A机上所有资源切换到B机;恢复A机网卡,B机如果再出现业务网卡故障,所有资源不能切换回A机,必须要执行资源清理操作,我个人认为这个纯属于BUG,否则这个HA也太傻了。

2)具体原因分析如下:

因为上次A机资源切换到B机的时候已经因为A机网卡故障有报错(显示一堆error),此时集群认为A机状态不正常,即使你已经人工确认网卡已经恢复,但是仍然需要你进行资源清理操作(cleanup resource),报错都清除了,再把资源从B机切回A机,就成功了!

 

另外,再啰嗦一下,如果在A机有报错的情况下,即使人工干预,进行人为地方式来把资源从B机切换到A机去,只会受到失败的结果,如果普通切换,没有任何反应;如果强行切换,会产生2个约束(restrictionsresource location ),并且资源此时直接游离了,不被任何主机接管,如果此时你清理约束,资源马上再次被B机接管。最后还是必须做清楚资源的动作。

 

3、双网卡绑定的方法

网上搜索的方法,记录备忘。

多个网卡绑定一个IP地址(bonding)


使用多块网卡虚拟成为一块网卡,具有相同的IP地址。这项技术其实在sun和cisco中已经存在,分别称为Trunking和etherchannel技术,在linux中,这种技术称为bonding。
  因为bonding在内核2.4.x中已经包含了,只需要在编译的时候把网络设备选项中的 Bonding driver support选中就可以了。
  然后,重新编译核心,重新起动计算机,执行如下命令:

  ismod bonding
  ifconfig eth0 down
  ifconfig eth1 down
  ifconfig bond0 ipaddress
  ifenslave bond0 eth0
  ifenslave bond0 eth1

  现在两块网卡已经象一块一样工作了,这样可以提高集群节点间的数据传输。
  你最好把这几句写成一个脚本,再由/etc/rc.d/rc.local调用,以便一开机就生效。
  bonding对于服务器来是个比较好的选择,在没有千兆网卡时,用两三块100兆网卡作 bonding,可大大提高服务器到交换机之间的带宽。但是需要在交换机上设置连接bonding 网卡的两个口子映射为同一个虚拟接口。

 

 

 

___________________________________________________________________________________

版权所有,文章允许转载,但必须以链接方式注明源地址,否则追究法律责任!

Author:   laven54 (lurou)

Email:    laven54@163.com

Blog:      http://blog.csdn.net/laven54