令人心仪的ZFS文件系统

来源:互联网 发布:淘宝图片修图技巧 编辑:程序博客网 时间:2024/04/30 14:24

ZFS作为Solaris 10OpenSolaris的新特性,吸引了开源社区里很多人的关注,Linux之父Linus Torvalds公开表示对Solaris软件的ZFSZettabyte文件系统)特别感兴趣,认为该系统管理档案在硬盘的存储方式,具有横跨多个硬盘,同时保持数据完整性的内建功能。但根据他“悲观的”预测,Sun会想办法阻止Linux得到ZFS。在这篇文章里面,我想谈谈自己对ZFS的认识。

什么是ZFS

Solaris ZFS可以说是对传统的磁盘和文件系统管理的革新。操作系统设计在刚刚开始的时候,将磁盘划分为不同的分区(partition),在每个分区上建立管理数据的文件系统,操作系统通过read/write系统调用,提供对文件系统上的文件的读写访问。随着技术的发展,人们发现这种文件管理方法存在很多问题,其中有两点最为突出,首先,由于文件系统的大小实在创建文件系统的时候指定的,同时文件系统的大小又受分区大小的限制,而在使用中如果某个文件系统的空间被用满,那除了重新配置系统,别无选择;另外,文件系统中有一部分空间被文件系统本身有占有,用来存放文件系统的相关信息,比如文件系统的其实块号,大小,根目录节点的block号,文件系统的属性等等。这些信息是在创建文件系统的时候,产生的,这就是为什么在一个空文件系统下du的时候,仍然发现文件系统空间不是100free的原因。如果说第二个问题还可以被忍受(毕竟知识一小部分而已)的话,那第一个弊端足驱动人们寻找好的解决方法。RAID是很好的解决问题的方法。

RAIDRedundant Array of Inexpensive Disks),顾名思义是用多个磁盘组成的磁盘阵列来存储数据,文件系统可以建立在多个磁盘上,这样就可以天马行空了。为了增强数据的安全性,防止阵列中一个硬盘损坏,导致所有数据的丢失,RAID还提供了冗余信息,使阵列中损坏的磁盘可以被其他磁盘所代替。目前,比较流行的RAID包括RAID0RAID1RAID5和它们的复合。

RAID0提供了stripe的功能,及简单的将阵列中的磁盘拼凑在一起,当中的任何一个磁盘的损坏都导致全军覆没;RAID0提供了mirror的功能,即两个相同的磁盘保存同样的内容,这样任意的磁盘坏了,还有另一个顶着,不过成本上升两倍;RAID5则在多个磁盘(至少3个)上同时建立stripe和冗余的特性,使磁盘的空间得以扩展,同时通过冗余信息来保证任何一个磁盘的可更换性。

目前,RAID3种实现方法。第一种,RAID的功能由硬件来实现,通过购买昂贵的硬件板卡,来搭建RAID系统,目前市场上RAID控制卡由LSIIntelQlogic所瓜分;第二种,在系统的南桥芯片和BIOS中加入对RAID的功能支持,Intel的服务器平台上几乎都支持这个功能,这种方法比第一种要便宜很多;第三种,所有RAID的功能由操作系统软件来完成,普通的UNIX/Linux系统种都通过称为Volume Manager的工具对RAID功能提供支持,这种方法是最便宜,最容易获得,也是最符合RAID名字所包含的含义:便宜。

然而,便宜没好货在这里并没有成为例外。Volume Manager工具存在两个缺点,首先,工具使用起来比较复杂。笔者曾经用了一个礼拜的时间去学习FreeBSD下面的Volume Manger工具,深深的感到其配置文件的晦涩;其次,也是致命的,那就是RAID5write hole缺陷。RAID5在写数据的时候,是分为两步的,首先将数据写到磁盘阵列上,然后将该stripe上数据的校验码记录到阵列上,如果在刚写完数据的时候,系统断电,那么该数据对应的校验码就没有机会再恢复了,长期以往,可以想象。

说了这么多,ZFS是如何解决这个问题的呢?如下图所示,

 

传统的Volume Manager不管是用硬件,firmware还是操作系统的软件实现,volume都是预先设定好的,文件系统建立在单个volume上,不同的volume之间的空间不能动态共享,这样文件系统就局限于一个设备,因此文件系统自身会受到该volume大小的限制。而ZFS文件系统不限于任何特定的设备或volume,而是将所有可能的设备都放入一个存储池中,文件系统的大小根据其实际需要在这个池中进行分配,这有点类似于系统对system memory的管理方法,基于这样的管理方法,ZFS文件系统可以充分的利用存储池中的所有存储设备。更可贵的是,所有这一切对用户是透明的,用户可以像创建和删除目录一样,来动态的管理ZFS文件系统,当一个文件系统被创建的时候,它会自动的mount到系统的文件目录树下,这大大简化了ZFS管理的难度。同时,存储池中的设备可以动态的加入,删除或替换,同一个ZFS文件系统还可以在不同的系统之间移植。

说了这么多,我们来试试自己创建并管理一个ZFS,从而体验一下ZFS轻松的管理和强大的功能。

ZFS的管理

下面的一行命令创建一个ZFS存储池:

 

bash-3.00# zpool create test raidz2 c0t1d0s0 c0t1d0s1 c0t1d0s2 c0t1d0s3

 

其中raid2参数指定在其后的设备上建立一个RAIDZRAID,它类似RAID5,但解决了RAID 5软件实现的write hole问题。ZFS可以提供4RAID级别,分别称为stripe(默认),mirrorRAIDZ1RAIDZ2。将raidz2换为mirrorraidz1将会创建其他类型的RAID。创建好的存储池可以通过下面的命令来查看:

 

bash-3.00# zpool list

NAME                    SIZE    USED   AVAIL    CAP  HEALTH     ALTROOT

test                   15.9G    274K   15.9G     0%  ONLINE     -

bash-3.00# zpool status -v test

  pool: test

 state: ONLINE

 scrub: none requested

config:

 

        NAME          STATE     READ WRITE CKSUM

        test          ONLINE       0     0     0

          raidz2      ONLINE       0     0     0

            c0t1d0s0  ONLINE       0     0     0

            c0t1d0s1  ONLINE       0     0     0

            c0t1d0s2  ONLINE       0     0     0

            c0t1d0s3  ONLINE       0     0     0

errors: No known data errors

 

创建完存储池后,ZFS会在根目录下创建一个和存储池名字相同的目录,并将ZFS根文件系统mount在该目录下,所有基于该ZFS的文件系统都会mount在该ZFS根文件系统之下,可以通过-m参数,将该根目录mount在系统目录树的其他位置:

 

bash-3.00#zpool create -m /export/zfs home c1t0d0

 

删除一个ZFS存储池也比较简单:

 

bash-3.00# zpool destroy test

 

如果当前设备正在使用,从而导致该命令不成功,可以使用-f参数强行销毁(这里默认你知道这样做的后果)。

 

创建和删除一个ZFS文件系统和创建删除一个目录那么简单:

 

bash-3.00# zfs create test/home

bash-3.00# zfs destroy test/home

bash-3.00# zfs rename test/home/user test/home/user2

bash-3.00# zfs list

NAME              USED  AVAIL  REFER  MOUNTPOINT

test              210K  7.78G  29.9K  /test

test/home        56.8K  7.78G  29.9K  /test/home

test/home/user2  26.9K  7.78G  26.9K  /test/home/user2

 

这些文件系统一旦被创建,系统自动将他们mountZFS的根目录下,管理员不需要去修改/etc/vfstab文件。另外zfs命令还可以使用quotareservation属性来规定zfs文件系统的配额和预留空间。

ZFS文件系统还提供了快照(snapshot)和克隆(clone)的功能,由于本文章不准备成为一个完整的ZFSadministration guide,感兴趣的话,可以到docs.sun.com上下载相应的文章。

总结

这篇文章简单介绍了Solaris 10/OpenSolaris下面ZFS相关的背景知识,同时简单介绍了如何创建并管理一个ZFS文件系统。关键字:ZFSOpenSolarisVolume ManagerZPOOL.