Ceph架构介绍及使用(RBD部分)
来源:互联网 发布:单片机读写sd卡 编辑:程序博客网 时间:2024/06/03 17:04
RBD
块存储是Ceph的另一大支撑点,它目前可以为虚拟机和主机(Host)提供不同路径的块存储。
图十一
上图为Ceph Cluster为虚拟机提供块设备支持。LibRBD是基于Librados的块设备接口实现,主要将一个块设备映射为不同的对象来实现。通过LibRBD可以创建一个块设备(Container),然后通过QEMU/KVM Attach到VM上。通过Container和VM的解耦使得块设备可以被绑定到不同的VM上。
图十二
上图为Ceph Cluster为主机提供块设备支持,通过RBD Kernel Module(rbd.ko)为主机提供块设备。这里有一个与上述不同之处在于Librados是内核模块而模块名称为(libceph)。这是因为RBD内核模块需要利用同样位于内核空间的Librados。从这里我们可以了解到,实际上Ceph维护了数量非常多的Library,而实际上质量是层次不齐的,这需要了解Ceph的人去合理使用。正是因为如何多样的Library也使得Ceph的存储接口得到多样化,而不是让不同的存储接口勉强实现。不同的存储接口具有完全不同的路径。
以上两种方式都是将一个虚拟的块设备分片存储在RADOS(Ceph Cluster)中,都会利用利用数据条带化提高数据并行传输,都支持块设备的快照,COW(Copy-On-Write)克隆。最重要的是RBD还支持Live migration。目前的OpenStack,CloudStack都采用第一种方式为虚拟机提供块设备。
图十三
图十四
上述图示也表明了在大量VM的情况下如何使得存储容量利用的最小化和高效性。当大量VM基于同一个Snapshot建立Volume时,所有容量不会立即得到占用,而都是COW。这个特征也是目前众多存储厂商在VDI解决方案一直强调的。在VDI解决方案中,存储成本是最重要的一环,利用Ceph通过Thin provisioning和数据并行化可以大大提高VDI方案的吸引力。
目前Ceph的块存储是大力推荐并且高速开发的模块,因为它提供的接口对于用户更加熟悉,并且在目前流行的OpenStack和CloudStack中可以得到广泛接受和支持。Ceph块存储的计算和存储解耦、Live migration特性、高效的快照和克隆/恢复都是引入注目的特性。
原文链接:http://www.wzxue.com/why-ceph-and-how-to-use-ceph/
- Ceph架构介绍及使用(RBD部分)
- Ceph架构介绍及使用
- CEPH RBD集群使用
- k8s使用ceph rbd
- Ceph架构介绍及使用(转载)
- ceph块存储rbd介绍
- iscsi协议使用ceph rbd
- kubernetes使用ceph rbd存储
- Ceph介绍之RBD实现原理
- openstack&ceph配置使用rbd cache
- 通过iscsi协议使用ceph rbd
- 通过iscsi协议使用ceph rbd
- ceph中rados/rbd命令无法使用
- kubernetes的ceph RBD volume(3): 动态volume的使用(ceph RBD)
- kubernetes的ceph RBD volume(1):使用Ceph RBD作为后端Volume
- kubernetes的ceph RBD volume(2): 使用Ceph RBD作为persistent volume
- openstack nova后端使用ceph rbd(增加在线迁移live_migrate和快照snapshot功能)
- Ceph rbd cmd练习
- zlog使用手册首例错误记录,hello word , init failed
- amcl算法问题
- 第八周项目4 稀疏矩阵的三元组表示的实现及应用
- c#读书笔记
- C++风格_auto
- Ceph架构介绍及使用(RBD部分)
- Pycharm用鼠标滚轮控制字体大小的
- luogu P2014 选课 树形背包
- 常见的五个编译时异常和常见的五个编译时异常
- Oracle 配置远程连接
- laravel email
- js判断手机系统是android还是ios
- dropwizard框架学习
- 1、ant入门-002