虚拟机流量接入与控制
来源:互联网 发布:黑莓priv优化全攻略 编辑:程序博客网 时间:2024/06/05 11:08
目前VM间的流量互访主要有两大技术流派和路线:
第一类是服务器厂商提出的EVB,全称是802.1qbg Edge Virtual Bridging(边界虚拟网桥),其核心思想很简单,就是把虚拟机之间的互访流量通过发卡机制丢给接入交换机处理,不在物理服务器中处理,也不需要对服务器做任何修改。
第二类是网络设备厂商提出的BPE,全称是802.1qbh Bridge Port Extension(桥接接口扩展),其核心思想也很简单,就是把交换机的接口模块延伸到物理网卡中,网卡的虚拟接口和物理接入交换机都由统一的控制平面管理,这样网络设备厂商也可以在服务器市场中分一杯羹。
先说第二类BPE,它是由Cisco主推的,典型的技术实现是FEX(Fabric Extend)+VN-Link。802.1qbh的核心是一台虚拟的集中式框式交换机,包括转发主控板ControllingBridge(CB)和接口板Port Extender(PE)。
Cisco对于802.1qbg BPE的实现主要有三款产品,Nexus1000V, Nexus5000+Nexus2000,UCS,三款产品是从软件到硬件的一个逐级演进过程。
1 Nexus1000V主要包含VSM(Virtual Supervisor Module)和VEM(Virtual Ethernet Module),顾名思义VSM是CB,VEM是PE。确实是这样,VEM是运行在物理服务器Hypervisor层次的软件交换机,其虚拟接口称为vETH,负责连接VM虚拟网卡vNIC和物理网卡,通过MAC地址转发(还没有封装VN-Tag),通过不允许上行接口转发其他上行接口报文避免环路;VSM可以是单独的硬件盒子也可以是运行在服务器上的软件,如下图,它对VEM中的vETH进行配置和管理,并在管理vETH时引入Port Profile以支持VM迁移。Nexus1000V实现了Cisco的VN-Link技术,即VN-Link=vNIC+vETH+PortProfile.
这种方式仅解决了服务器和网络管理边界的问题,但是对服务器的性能损耗依然较大。
2 Nexus5000+Nexus2000,顾名思义N5000是CB,N2000是PE。确实是这样,N5000是带转发和交换功能的主控板,所有流量都要经过N5000;N2000只是作为接口板,不提供本地交换能力。这种方案实现了Cisco的FEX技术(FabricExtend,等同于Port Extend),即封装了VN-Tag用于在FEX内部寻址转发使用的标识。
这种方式需要依赖于服务器的物理网卡为单元进行报文处理,由于Cisco在服务器网卡方面的市场份额很小,因此很难将FEX通过网卡推进到服务器内部。
3 UCS(Unified Computing System,统一计算系统)。应该说是前面两种技术的集合,即FEX+VN-Link。由于UCS包含了服务器、网卡、接入交换机等,因此可以实现直接连接到VM前面。
- 虚拟机流量接入与控制
- 流量控制与RateLimiter
- 流量控制与拥塞控制
- 流量控制与拥塞控制
- 流量控制与拥塞控制
- 拥塞控制与流量控制的区别
- 流量控制与拥塞控制学习小结
- TCP的流量控制与拥塞控制
- TCP流量控制与拥塞控制
- TCP的流量控制与拥塞控制
- TCP的流量控制与拥塞控制
- TCP流量控制与拥塞控制
- TCP的流量控制与拥塞控制
- TCP的流量控制与拥塞控制
- TCP的流量控制与拥塞控制
- 流量控制与拥塞控制区别
- TCP流量控制与拥塞控制
- TCP流量控制与拥塞控制
- Hibernate注解映射联合主键的三种主要方式
- 原型模式
- nginx代码分析之(一)——初探
- 为什么C语言屹立不倒?
- 解决文本框readonly与键盘退格键
- 虚拟机流量接入与控制
- oracle的trace files
- nginx代码分析之(二)——Empty Gif是如何工作的
- CWnd窗口框架
- 【linux安全】linux口令管理
- c++11
- 人机接口设备(HID)
- 指向指针的指针, 现在很理解!
- 使用 Boost 的 IPC 和 MPI 库进行并发编程