和云计算、虚拟化相关的几个概念的粗浅理解

来源:互联网 发布:武林外传 知乎精华 编辑:程序博客网 时间:2024/06/06 07:24

CIDR:

http://baike.baidu.com/view/4217886.htm?fromtitle=CIDR&fromid=3695195&type=search

CIDR (Classless InterDomain Routing):无类别域间路由选择

基本思想:
适当分配多个合适的IP地址,使得这些地址能够进行聚合,减少这些地址在路由表中的表项数。
“无分类”指不考虑IP地址所属的类别,路由的策略完全基于整个32bit IP地址的掩码来操作。

一个ISP被分配了一些C类网络,这个ISP准备把这些C类网络分配给各个用户群,已经分配了三个C类网段给用户,如果没有实施CIDR技术.ISP的路由器的路由表中会有三条下连网段的路由条目,并且会把它通告给Internet上的路由器.通过实施CIDR技术,我们可以在ISP的路由器上把这三个网段198.168.1.0,198.168.2.0,198.168.3.0汇聚成一条路由198.168.0.0/16.这样ISP路由器只向Internet通告198.168.0.0/16这一条路由,大大减少了路由表的数目.从而为网络路由器节省出了存储空间。 值得注意的是,使用CIDR技术汇聚的网络地址的比特位必须是一致的,如上例所示.如果上例所示的ISP连接了一个172.178.1.0网段,这些网段路由将无法汇聚,无法实现CIDR技术.

如何工作:
CIDR 对原来用于分配A类、B类和C类地址的有类别路由选择进程进行了重新构建。
CIDR用 13-27位长的前缀取代了原来地址结构对地址网络部分的限制(3类地址的网络部分分别被限制为8位、16位和24位)。
在管理员能分配的地址块中,主机数量范围是32-500,000,从而能更好地满足机构对地址的特殊需求。

CIDR 地址中包含标准的32位IP地址和有关网络前缀位数的信息。
以CIDR地址222.80.18.18/25为例,其中“/25”表示其前面地址中的前25位代表网络部分,其余位代表主机部分。
CIDR建立于“超级组网”的基础上,“超级组网”是“子网划分”的派生词,可看作子网划分的逆过程。子网划分时,从地址主机部分借位,将其合并进网络部分;而在超级组网中,则是将网络部分的某些位合并进主机部分。这种无类别超级组网技术通过将一组较小的无类别网络汇聚为一个较大的单一路由表项,减少了Internet路由域中路由表条目的数量。


VxLan:

  • VLAN id number limitation: 4096
  • The primary goal of VXLAN is to extend the virtual LAN (VLAN) address space by adding a 24-bit segment ID and increasing the number of available IDs to 16 million.
  • In a software-defined network, packet-moving decisions are centralized and network traffic flow can be programmed independently of individual switches and data center gear.

NIC

NIC: Network Interface Controller/Card, 即网卡
NIC组合绑定:
NIC组合就是把同一台服务器上的多个物理网卡通过软件绑定成一个虚拟的网卡,也就是说,对于外部网络而言,这台服务器只有一个可见的网卡。对于任何应用程序,以及本服务器所在的网络,这台服务器只有一个网络链接或者说只有一个可以访问的IP地址。

利用NIC组合技术的好处,除了利用多网卡同时工作来提高网络速度以外,还有可以通过NIC组合实现不同网卡之间的负载均衡(Load balancing)和网卡冗余(Fault tolerance)。


Hypervisor

Hypervisor是一种运行在物理服务器和操作系统之间的中间软件层,可允许多个操作系统和应用共享硬件。也可叫做VMM( virtual machine monitor ),即虚拟机监视器。
Hypervisors是一种在虚拟环境中的“元”操作系统。它们可以访问服务器上包括磁盘和内存在内的所有物理设备。
Hypervisors不但协调着这些硬件资源的访问,也同时在各个虚拟机之间施加防护。
当服务器启动并执行Hypervisor时,它会给每一台虚拟机分配适量的内存、CPU、网络和磁盘,并加载所有虚拟机的客户操作系统。
Hypervisor是所有虚拟化技术的核心。非中断地支持多工作负载迁移的能力是Hypervisor的基本功能。

分类:
I型: 虚拟机直接运行在系统硬件上,创建硬件全仿真实例,被称为“裸机”型。   
Hardware -> Hypervisor -> Guest OS -> App
代表:Xen, vSphere

II型: 虚拟机运行在传统操作系统上,同样创建的是硬件全仿真实例,被称为“托管(宿主)”型。
Hardware -> Host OS -> Hypervisor -> Guest OS -> App
主机虚拟化中VM的应用程序调用硬件资源时需要经过:VM内核->Hypervisor->主机内核,因此性能是三种虚拟化技术中最差的。
代表:KVM
 
III型:虚拟机运行在传统操作系统上,创建一个独立的虚拟化实例(容器),指向底层托管操作系统,被称为“操作系统虚拟化”。
Hardware -> Host OS -> OS Virtualization -> App

厂商:
目前市场上的三大虚拟化技术:VMware vSphere Hypervisor、微软的Hyper-V、思杰的Xen hypervisor
开源的有 KVM 和 Xen


虚拟化技术

虚拟化技术:通过虚拟化,可以在同一台计算机上同时启动多个操作系统,每个操作系统上可以有许多不同的应用,多个应用之间互不干扰。

记住 KVM 只是虚拟化解决方案的一部分,因为处理器直接提供了虚拟化支持(可以为多个操作系统虚拟化处理器);
内存可以通过 KVM 进行虚拟化;
最后,I/O 通过一个稍加修改的 QEMU 进程(执行每个客户操作系统进程的一个拷贝)进行虚拟化。

KVM 向 Linux 中引入了一种除现有的内核和用户模式之外的新进程模式。这种新模式就称为客户模式。顾名思义,它用来执行客户操作系统代码(至少是一部分代码)。
回想一下内核模式表示代码执行的特权模式,而用户模式则表示非特权模式(用于那些运行在内核之外的程序)。
根据运行内容和目的,执行模式可以针对不同的目的进行定义。客户模式的存在就是为了执行客户操作系统代码,但是只针对那些非 I/O 的代码。
在客户模式中有两种标准模式,因此客户操作系统在客户模式中运行可以支持标准的内核,而在用户模式下运行则支持自己的内核和用户 空间应用程序。
客户操作系统的用户模式可以用来执行 I/O 操作,这是单独进行管理的。

在客户操作系统上执行 I/O 的功能是由 QEMU 提供的。QEMU 是一个平台虚拟化解决方案,允许对一个完整的PC 环境进行虚拟化(包括磁盘、图形适配器和网络设备)。
客户操作系统所生成的任何 I/O 请求都会被中途截获,并重新发送到 QEMU 进程模拟的用户模式中。

KVM 通过 /dev/kvm 设备提供了内存虚拟化。每个客户操作系统都有自己的地址空间,并且是在实例化客户操作系统时映射的。
映射给客户操作系统的物理内存实际上是映射给这个进程的虚拟内存。
为了支持客户物理地址到主机物理地址的转换,系统维护了一组影子页表(shadow page table)。
处理器也可以通过在访问未经映射的内存位置时使用系统管理程序(主机内核)来支持内存转换进程。


PXE

PXE(preboot execute environment,预启动执行环境)是由Intel公司开发的技术,工作于Client/Server的网络模式。
它支持工作站通过网络从远端服务器下载映像,并由此支持通过网络启动操作系统。
在启动过程中,终端要求服务器分配IP地址,再用TFTP(trivial file transfer protocol)或 MTFTP协议 下载一个启动软件包到本机内存中执行,由这个启动软件包完成终端基本软件设置,从而引导预先安装在服务器中的终端操作系统。

PXE可以引导多种操作系统,如:Windows95/98/2000/windows2003/windows2008/winXP/win7/win8,linux等。

PXE启动原理:
当计算机引导时,BIOS把 PXE Client 调入内存中执行,然后由 PXE Client 将放置在远端的文件通过网络下载到本地运行。

Boot Process:
Power on –> BIOS –> Network Card’s PXE stack –> Network Boot Program (NBP) downloaded using TFTP from server to Client’s RAM –> NBP’s responsibility to perform the next step (a.k.a. 2nd stage boot)


1 0
原创粉丝点击