磁阵及LVM

来源:互联网 发布:百超激光编程软件 编辑:程序博客网 时间:2024/04/29 15:42
l磁阵及LVM
l了解磁阵并使用LVM对其进行管理
l磁阵的定义及作用
l磁阵raid类型
l常用磁阵设备及操作
lLVM(Logical Volume Manager)介绍
lLVM管理(结合实例)
 
 
l磁阵的定义及作用
l廉价且具有冗余(重复配置)能力的磁盘阵列,以数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。磁盘阵列是由磁盘组成的一个容量巨大的磁盘组。
l由于数据分散存储在各个磁盘中,这样在访问数据时减少磁盘I/O竞争,提高了数据传输率;
l由于采取了数据容错机制,对于某个磁盘硬件故障可以通过校验数据进行恢复,如Raid5的奇偶校验,另外甚至是磁盘的相互镜像备份,如Raid1,提高了安全性
l磁阵raid类型

lRaid0
l将多个磁盘合并成一个大磁盘,不具备冗余,并行I/O,速度最快;存取数据时,以磁盘个数进行分段,并行同时写入这次磁盘,所以速度最快;由于没有冗余,若某磁盘损坏将导致所有数据无法使用。  
 
                                                       
l
l1、将磁盘先分成等量的区块,文件写入时,该文件会依据块的大小切割好,之后依次写入各个磁盘中,比如有2个磁盘,当100M的文件写入时,那么每块磁盘写入50M
l2、越多块磁盘组成的RAID0性能将越好,因为每块磁盘只负责文件数据的一部分(文件大小/磁盘数),同时磁盘总容量也相应的增加了;
l3、存在数据风险,若其中某块磁盘损毁,那么文件数据将缺失一部分,该文件就挂了,由于所有文件都如此存储,加入某块磁盘挂了,那么RAID上的所有数据将丢失;
l4、如果使用不同容量磁盘组成RAID0,数据依次写入,那么小容量的磁盘用完后,剩余的数据将写入大容量磁盘的多余空间中,这样性能将下降。
l
lRaid1
l两组相同的磁盘系统互为映像,某块磁盘的损坏将不影响使用,最安全但速度不高;在主备磁盘上同时存放数据,当主盘故障时备盘代替工作;磁盘利用率只有50%,利用率低下,成本最高;
l
l1、若不以相同磁盘来组成,那么总容量将以最小的磁盘为准
l2、数据写入RAID时分别写入各个磁盘中,因此写入性能将变得很差,加入使用了磁盘整列卡,则由其来完成复制工作而非系统I/O,这样性能还OK,但如果是使用软件磁盘阵列(有操作系统仿真RAID),性能将很差;
l3、由于使用的相同组磁盘进行全量的备份,所以硬件消耗较严重,实际大小只用了总容量的一半;
l
lRaid10Raid01
l结合了raid0raid1的标准而成,优点是拥有了raid0的速度和raid1的可靠性,但磁盘利用率低下
l1RAID01将磁盘组成RAID0,再将RAID0组成RAID1;
l2RAID10将磁盘组成RAID1,在将RAD1组成RAID0
l
lRaid3
l将数据条块化分布于不同的硬盘上,使用简单的奇偶校验(同raid2的区别),并用单块磁盘存放奇偶校验信息。如果一块磁盘失效,奇偶盘及其他数据盘可以重新产生数据;如果奇偶盘失效则不影响数据使用。
l
lRaid5
l不单独指定的奇偶盘,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。
l
l1、至少3块磁盘组成,写入的模式类似于RAID0,但在每次写入过程中,将在每个磁盘上加入校验记录,其会记录其他磁盘的备份数据,当有磁盘损毁时候进行恢复;例如有3块磁盘ABC组成raid5,所有盘的同一位置的块组成一个条带,在写入数据时就写入到该条带的3个块中,其中1个块存放了校验数据,其作用是,通过AB\BC\AC上的校验码来推算出另外块上的数据,那么raid由所有的条带组成,而每个条带都有1个校验块,这样所有的校验块加起来就要耗尽1块磁盘的容量,故Raid5的真正使用的磁盘数量为:n-1,实际可用容量为:总容量*(n-1);
l2、读取性能还OK,于RAID0差不多,但写入时由于存在生成校验记录的计算过程可能导致性能下降,如果使用了磁盘整列卡还OK,但若是软件磁盘阵列(耗费CPU来完成校验记录的计算),那么性能无法保障;
l3、热备盘相当于在Raid中做了个备份了,如raid里其中1块硬盘坏了是允许的并可以修改,但如果2块以上或更多盘坏了则不行,但若有了热备盘就会代替相应坏盘;
l常用磁阵设备及操作
l结合我们的测试环境来了解一下磁阵同单板的连接方式(光纤连接):
l
l举例常用的OceanStor S3900系列,操作流程如下(参见文档 
lOceanStor S3900系列配套ATAE平台手工操作指导书.doc
l
l执行完OcenStor的操作配置后,检查单板同磁阵的连接状态,root用户登录单板,在目录/sys/class/fc_host中,其中有hostx的目录,进入可查看到以”port_”开头的几个文件,如下:
lport_id
lport_name (光纤口名称,内容同fabric_name)
lport_state(状态为Online表示成功)
lport_type
lATAE背板上有2块卡就会有2host*的目录,所以我们在fc_host目录下会看到host1host2
l
l执行命令lsscsifdisk -l可查看到映射到单板上显示的物理磁盘,如下:
llinux:~ #lsscsi
l[0:0:0:0]    disk    SEAGATE  ST973402SS       S229  -      
l[0:0:1:0]    disk    SEAGATE  ST973402SS       S229  -      
l[0:1:0:0]    disk    LSILOGIC Logical Volume   3000  /dev/sda
l[5:0:0:0]    disk    up       updisk          1     /dev/sdb
l[5:0:0:1]    disk    up       updisk          1     /dev/sdc
l[5:0:0:2]    disk    up       updisk          1     /dev/sdd
l[5:0:0:3]    disk    up       updisk          1     /dev/sde
l[5:0:0:4]    disk    up       updisk          1     /dev/sdf
l其中 sdbsdf就是在oceanstor上划分的各个LUN映射到单板上所产生的
l
l在通过USM的“注册主机”安装过程中来安装UltraPath软件,安装完后rpm –qa |grepUltraPath 检查确认
l至此,磁阵同单板设备的连接已OK
 
 
lLVM介绍
l全称Logical Volume Manager(逻辑盘卷管理),在使用linux系统时常会遇到不知道如何正确的划分分区大小,在一些分区空间耗尽时不知如何扩展,或者即使扩展也需重启硬件导致影响到系统运行,而LVM就是可方便灵活的扩展压缩分区并且在系统运行情况使其生效。
l一种磁盘分区管理机制,是建立在硬盘和分区之上的逻辑概念,可灵活有效管理磁盘分区,可将多个磁盘分区整合为一个逻辑卷组(VG),又可在逻辑卷组中划分多个逻辑卷(LV),并在LV上创建文件系统;也可调整逻辑卷组的大小,并给卷组根据业务需要重新命名,如vgora(存放所有数据库系统表空间对应的逻辑卷)
l
l名词说明
lPV (物理卷,即硬盘分区,如上述的sdb -sdf
lVG(卷组,可由1或多个pv所组成)
lLV (逻辑卷,基于某个卷组进行创建,LV上可建文件系统)
lPE physicalextent,物理卷上可被LVM寻址的最小基本单位)
lLE logicalextent,逻辑卷上可被LVM寻址的最小基本单位)
lPE LE是相同的且一一对应,对应关 系图如下:
l从上可看出,VG可由多个PV组成,而PV中的PELV中的LE一一进行对应
l
l磁盘分区、卷组、逻辑卷和文件系统的逻辑关系如下图:
lLVM管理(结合实例)
l在讲述LVM管理前先结合U09版本的安装说一下如何进行规划和操作
l要对LVM进行管理,首先检查LVM软件是否安装,通常通过USM自动化安装即可,命令rpm –qa|greplvm检查确认
l
llvm创建过程,流程如下:
l参考手工挂载磁阵命令参考(U09版本示例).xlsx
l
l1pvcreate /dev/sda  整个磁盘创建物理卷
l       pvcreate /dev/sdb1  某个磁盘分区上创建物理卷
l       pvscan  物理卷扫描
l2vgcreatevgora /dev/sda   在磁盘sda上创建卷组vgora
l       vgextendvgora /dev/sdb1  添加磁盘分区sdb1到卷组vgora
l       vgreducevgora /dev/sdb1  删除磁盘分区sdb1
l       vgscan 卷组扫描
l       vgdisplay 查看卷组详细信息
l3lvcreate -L 0.1G -nlvspfile /dev/vgora  
l       卷组vgora上创建lvspfile
l       lvremove /dev/vgora/lvspfile  删除lvspfile
l       lvextend -L 12G /dev/vgora/lvspfile  lvspfile大小扩展至12G
l       lvextend -L +1G /dev/vgora/lvspfile  lvspfile大小增加1G
l       lvdisplay  查看逻辑卷详细信息
l
l4mknod /dev/raw/raw1 c 162 1 创建裸设备文件
l       raw /dev/raw/raw1   /dev/vgora/lvspfile  
l       创建裸设备文件同LV的链接
l5mkfs -treiserfs /dev/vgora/lv_archive  创建文件系统
l       mount -treiserfs /dev/vgora/lv_archive  /home/root/direct挂载文件系统
l       unmount /dev/vgora/lv_archive 卸载文件系统
l上述步骤24,我们通常通过USM来完成,USM在划分时配置如下图:
l
l上图中创建vg分别为vgoravggroup,对应pv分别为/dev/sdb,/dev/sdc, PE大小为4M
l注意:同1个卷组中所有PV上的PE大小必须相同
l
l创建LVvgora-lvspfile,大小为30M,文件系统类型为RAWRAW设备文件名为/dev/raw/raw1,才用手动bind
0 0