[Linux] 总结各系统 双网卡绑定

来源:互联网 发布:舒尔se315 知乎 编辑:程序博客网 时间:2024/06/06 14:07

Rhel 6.X

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片

# vi /etc/sysconfig/network-scripts/ifcfg-bond0

DEVICE=bond0

ONBOOT=yes

BOOTPROTO=static

IPADDR=

NETMASK=

GATEWAY=

USERCTL=no

BONDING_OPTS=“mode=1 miimon=100”

这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。

说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0123四种模式,常用的为01两种。

mode=0表示load balancinground-robin)为负载均衡方式,两块网卡都工作。

mode=1表示fault-toleranceactive-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。

bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用

vi /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=none

MASTER=bond0

USERCTL=no

# vi /etc/sysconfig/network-scripts/ifcfg-eth1

DEVICE=eth1

ONBOOT=yes

BOOTPROTO=none

MASTER=bond0

USERCTL=no

# vi /etc/modprobe.d/bond0.conf

编辑 /etc/modules.conf文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0

alias bond0 bonding

# vi /etc/rc.local

ifenslave bond0 eth0 eth1

到这时已经配置完毕重新启动机器。

重启会看见以下信息就表示配置成功了

..........

Bringing up interface bond0 OK

Bringing up interface eth0 OK

Bringing up interface eth1 OK

这样我们就完成Linux双网卡绑定一个IP的具体操作工作

备注:网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能,我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在SunCisco中 早已存在,被称为TrunkingEtherchannel技术,在Linux2.4.x的内核中也采用这这种技术,被称为bonding bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理

 

 

 

Rhel 7.X

 

第一种:

# vi /etc/sysconfig/network-scripts/ifcfg-bond0

TYPE=Ethernet

BOOTPROTO=static

DEVICE=bond0

NAME=bond0

TYPE=Bond

BONDING_MASTER=yes

ONBOOT=yes

IPADDR=

NETMASK=

GATEWAY=

BONDING_OPTS="mode=1 miimon=100"

 

 

# vi /etc/sysconfig/network-scripts/ifcfg-enp2s0f1

TYPE=Ethernet

BOOTPROTO=none

NAME=enp2s0f1

DEVICE=enp2s0f1

ONBOOT=yes

BONDING_MASTER=yes

MASTER=bond0

SLAVE=yes

 

 

 

# vi /etc/sysconfig/network-scripts/ifcfg-enp2s0f0

 

TYPE=Ethernet

BOOTPROTO=none

NAME=enp2s0f0

DEVICE=enp2s0f0

ONBOOT=yes

BONDING_MASTER=yes

MASTER=bond0

SLAVE=yes

 

2、第二种

添加 con-name team0配置文件为team0ifnameteam0虚拟链路网卡为team0team类型为聚合链路,配置引用驱动类型为activebackup

# nmcli connectionadd con-name team0 ifname team0 type team config '{"runner":{"name": "activebackup"}}'

 

为聚合链路添加IP,启动方式网卡开机自动启动,以手动方式获取IP

# nmcli connectionmodify team0 ipv4.addresses 172.16.3.40/24 connection.autoconnect yesipv4.method manual

 

 # 添加配置文件为team0-slave1,对应物理网卡为eth1,类型是聚合链路的重接口,是team0聚合链路的重接口

#nmcli connection add con-name team0-slave1 ifname eth1 typeteam-slave master team0

 

添加配置文件为team0-slave2,对应物理网卡为eth2,类型是聚合链路的重接口,是team0聚合链路的重接口

#nmcli connection add con-name team0-slave2 ifname eth2 typeteam-slave master team0

 

激活聚合链路team0

# nmcli connectionup team0

 

查看状态,均UP

# teamdctl team0state

 

 

FreeBSD 8.x & 10.x

# vi /etc/rc.conf

ifconfig_igb0="up"

ifconfig_igb1="up"

cloned_interfaces="lagg0"

ifconfig_lagg0="laggproto failover laggport igb0 laggport igb1"

ipv4_addrs_lagg0="192.168.1.2/24"

defaultrouter="192.168.1.1"

 

 

HP-UX 11.31

参考http://blog.itpub.net/26194851/viewspace-750891/

 

 

原创粉丝点击