CEPHFS 在集群中使用

来源:互联网 发布:ios 淘宝下拉刷新 编辑:程序博客网 时间:2024/06/08 19:19

使用CephFS的三个前提条件
1. 检查 linux kernel 版本是否是最佳支持的, ubuntu 14.04的 kernel 版本是 4.4,检测ok

  1. 安装一个cephfs的节点
    deph-admin-node@ceph-admin-node:~/my-cluster$ ceph-deploy install ceph-client-node

  2. 集群状态要是健康的,处于‘active+clean’ 状态,确保至少有一个MDS在跑。分别使用命令 ceph -s 和 ceph mds stat可以查看

创建cephfs,由若干个pg构成的pool作cephfs的data存储区和若干pg构成的pool作cephfs的metadata存储区
ceph-admin-node@ceph-admin-node:~/my-cluster$ ceph osd pool create cephfs_data 10
ceph-admin-node@ceph-admin-node:~/my-cluster$ ceph osd pool create cephfs_metadata 10
ceph-admin-node@ceph-admin-node:~/my-cluster$ ceph fs new harvis_cephfs cephfs_metadata cephfs_data
至此,一个cephfs创建成功。

挂载cephfs有两种方法,一种使用linux kernel cephfs驱动,通过mount -t ceph来挂载,另一种是使用ceph-fuse通过用户空间的fuse协议来挂载cephfs,我这没有cephfs驱动,就用后者。
sudo ceph-fuse -m 192.168.1.252:6789 -k ~/my-cluster/ceph.client.admin.keyring ./mycephfs
挂载后,cd mycephfs
sudo cp ../initrd.img .
该操作前后使用ceph -s观察集群消耗空间从123M变化为154M,很显然cephfs并没有用多副本策略(initrd.img 大小为21M)。

0 0
原创粉丝点击