kubernetes使用cephRBD作为存储卷

来源:互联网 发布:特效视频软件app 编辑:程序博客网 时间:2024/06/06 12:57

原文:http://tonybai.com/2016/11/07/integrate-kubernetes-with-ceph-rbd/

非常详细的描述了ceph环境搭建

到使用kubernetes创建pv、pvc,并挂载到一个pod的过程。

k8sCeph卷的例子(k8s官网中有样例)

{    ... ...        "volumes": [            {                "name": "rbdpd",                "rbd": {                    "monitors": [                           "10.16.154.78:6789",                           "10.16.154.82:6789",                           "10.16.154.83:6789"                                 ],                    "pool": "kube",                    "image": "foo",                    "user": "admin",                    "secretRef": {                           "name": "ceph-secret"                                         },                    "fsType": "ext4",                    "readOnly": true                }            }        ]    }}

各个字段的大致含义如下:

name:volume名字,这个没什么可说的,顾名思义即可。
rbd.monitors:前面提到过ceph集群的monitor组件,这里填写monitor组件的通信信息,集群里有几个monitor就填几个;
rbd.pool:Ceph中的pool记号,它用来给ceph中存储的对象进行逻辑分区用的。默认的pool是”rbd”;
rbd.image:Ceph磁盘块设备映像文件;
rbd.user:ceph client访问ceph storage cluster所使用的用户名。ceph有自己的一套user管理系统,user的写法通常是TYPE.ID,比如client.admin(是不是想到对应的文件:ceph.client.admin.keyring)。client是一种type,而admin则是user。一般来说,Type基本都是client。
secret.Ref:引用的k8s secret对象名称。



0 0
原创粉丝点击