13、RedHat6 集群文件系统GFS
来源:互联网 发布:万网中文域名 编辑:程序博客网 时间:2024/05/24 05:54
GFS文件系统
实验目的:
掌握GFS的理论和配置
实验理论:
在集群中为什么不用ext4类似的文件系统?
ext4文件系统在集群中不能实时同步数据,一个文件系统只有一个日志区,日志区记录着数据的变化
storage里的一个iscsi分区被格式化成ext4,iscsi分区通过iscsi技术又分别被映射到A机和B机,被映射过去的iscsi分区又分别被挂载到A机和B机,ext4文件系统里只有一个日志区,当A主机对iscsi分区写数据(创建/passwd)的时候,ext4文件系统里的日志区被加载到A主机了,B主机没有这个日志区,就看不到/passwd信息了,B主机卸载iscsi分区,有重新挂载iscsi分区,日志区加载到了B主机,B主机就看到了数据的变化,B主机对iscsi分区写数据(创建/123)时,A主机是看不到/123的,因为A主机没有日志区
在集群中为什么要用gfs文件系统?
如果有3个节点,使用gfs文件系统,gfs文件系统要被分3个日志区,3个日志区分别被3个节点加载,3个节点分别写数据的时候3个日志区会自动的同步彼此的日志,另一个节点就会实时看到其它节点修改的数据了,一个标准的日志区大概是128M,一个gfs分区内会有多个分区,牺牲了数据空间。
Gfs(Global File system)叫全局文件系统,也是一个网络日志文件系统,也叫集群文件系统,通常被用作多台计算机共享同一存储设备。
集群文件系统采用分布式锁管理,可以实现多个操作系统载入同一个文件系统的日志区同时对一个文件系统在同一时间内读写数据(在多台机器能同时看到变化的数据)
gfs有两种机制:
dlm锁机制:gfs不是可以让多个节点同时写入数据,dlm机制就防止其它节点同时写入数据
nolock不锁机制:可以同时看,同时写
本地LVM:本地节点里lvm.conf里的locking_type默认就为1,1代表不锁,3代表锁
集群LVM:只要节点加入到集群里lvm.conf里的locking_type的值就会从1自动变成3
集群LVM在node1创建一个LVM分区,node2也会有这个LVM分区,这就是集群LVM
实验步骤:
Node1:
[root@node1 ~]# fdisk -cu /dev/mapper/clusterstorage
Command (m for help): p
Disk /dev/mapper/clusterstorage: 2147 MB,2147483648 bytes
Device Boot Start End Blocks Id System
/dev/mapper/clusterstoragep1 63 224909 112423+ 83 Linux
/dev/mapper/clusterstoragep2 224910 449819 112455 83 Linux
Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 3
First sector (449820-4194303, default 449820):
Using default value 449820
Last sector, +sectors or +size{K,M,G}(449820-4194303, default 4194303): +800M
Command (m for help): w
The partition table has been altered!
[root@node1 ~]# partprobe /dev/mapper/clusterstoragep3 创建一个分区,把分区写进内核
Node2:
[root@node2 ~]# partprobe /dev/mapper/clusterstorage 把分区写进内核
[root@node2 ~]# fdisk -l
Disk /dev/mapper/clusterstorage: 2147 MB, 2147483648bytes
Device Boot Start End Blocks Id System
/dev/mapper/clusterstoragep1 1 14 112423+ 83 Linux
/dev/mapper/clusterstoragep2 15 28 112455 83 Linux
/dev/mapper/clusterstoragep3 29 130 819200 83 Linux
Node1:
mkfs. tables一下看你的系统是否有mkfs.gfs2这条命令,如果没有,那你需要安装gfs软件包了yum -y install gfs*
root@node1 ~]# mkfs.
mkfs.cramfs mkfs.ext3 mkfs.ext4dev mkfs.msdos
mkfs.ext2 mkfs.ext4 mkfs.gfs2 mkfs.vfat
[root@node1 ~]# mkfs.gfs2 -j 4 -p lock_dlm -t cluster0:gfs1 /dev/mapper/clusterstoragep3 -j表示划分几个日志区 3个节点划分4个日志区,5个节点就划分6个日志区,划分日志区最好要比总节点多一个 –p 填写锁还是不锁机制 -t 填写集群名:随便取的设备名
This will destroy any data on/dev/mapper/clusterstoragep3.
It appears to contain: data
Are you sure you want to proceed? [y/n] y
Device: /dev/mapper/clusterstoragep3
Blocksize: 4096
Device Size 0.78 GB (204800 blocks)
Filesystem Size: 0.78 GB (204797 blocks)
Journals: 4
Resource Groups: 4
Locking Protocol: "lock_dlm"
Lock Table: "cluster0:gfs1"
UUID: f73338c6-2f8b-9c5a-95a3-158c3c856b7d
[root@node1 ~]# /etc/init.d/clvmd restart 两个节点都要重启clvmd服务
Restarting clvmd: [ OK ]
[root@node1 ~]# chkconfig clvmd on
[root@node1 ~]# mkdir /clv
[root@node1 ~]# mount /dev/mapper/clusterstoragep3 /clv
[root@node1 ~]# cd /clv
[root@node1 clv]# ls
[root@node1 clv]# touch 123
[root@node1 clv]# ls
123
Node2:
[root@node2 ~]# /etc/init.d/clvmd restart
Restarting clvmd: [ OK ]
[root@node2 ~]# chkconfig clvmd on
[root@node2 ~]# mkdir /clv
[root@node2 ~]# mount /dev/mapper/clusterstoragep3 /clv
[root@node2 ~]# cd /clv
[root@node2 clv]# ls
[root@node2 clv]# ls
123
格式化成gfs文件系统,node1和node2都能同时看到变化的数据
- 13、RedHat6 集群文件系统GFS
- 红帽GFS集群文件系统配置指南 linux搭建gfs系统--iscsi+GFS实现网络存储
- CentOS6环境配置Linux GFS+LVM集群文件系统
- [转]Google文件系统(GFS)
- [转]Google文件系统(GFS)
- [转]Google文件系统(GFS)
- GFS文件系统研究
- 分布式文件系统 - GFS
- GFS文件系统研究
- GFS文件系统研究
- 谷歌文件系统GFS
- Google文件系统GFS
- Google之文件系统GFS
- Google文件系统 GFS
- 3、RedHat6 集群ISCSI
- 6、RedHat6 集群RHCS
- 8、RedHat6 集群Fence
- GFS——Google文件系统
- Linux SD卡驱动开发(四) —— SD 控制器之真正的硬件操作
- 上传jar包到私服(仅限于翼支付公司工作流程使用)和涉及的技术总结
- namespace命名空间
- 【mysql学习笔记】-事务处理
- C++之模板
- 13、RedHat6 集群文件系统GFS
- Linux SD卡驱动开发(五) —— SD 卡驱动分析Core补充篇
- Swift - 移除页面视图上的所有元素
- spring boot 页面之间相互传值二
- Vmware下Mysql5.6.30主从配置
- html状态码
- CString的MakeLower 特殊情况(乱码)下,转化会出错
- android6.21设备适配
- onDraw画圆环