Linux块设备驱动(一) _驱动模型

来源:互联网 发布:马赛克拼图软件 编辑:程序博客网 时间:2024/05/01 03:27

http://www.cnblogs.com/xiaojiang1025/p/6500557.html

块设备是Linux三大设备之一,其驱动模型主要针对磁盘,Flash等存储类设备,本文以3.14为蓝本,探讨内核中的块设备驱动模型

框架

下图是Linux中的块设备模型示意图,应用层程序有两种方式访问一个块设备:/dev和文件系统挂载点,前者和字符设备一样,通常用于配置,后者就是我们mount之后通过文件系统直接访问一个块设备了。

块设备(blockdevice)是一种具有一定结构的随机存取设备,对这种设备的读写是按(所以叫块设备)进行的,他使用缓冲区来存放暂时的数据,待条件成熟后,从缓存一次性写入设备或者从设备一次性读到缓冲区。作为存储设备,块设备驱动的核心问题就是哪些page->segment->block与哪些sector有数据交互
作为一种存储设备,和字符设备相比,块设备有以下几种不同:

字符设备块设备1byte块,硬件块各有不同,但是内核都使用512byte描述顺序访问随机访问没有缓存,实时操作有缓存,不是实时操作一般提供接口给应用层块设备一般提供接口给文件系统是被用户程序调用由文件系统程序调用

IO调度

就是电梯算法。我们知道,磁盘是的读写是通过机械性的移动磁头来实现读写的,理论上磁盘设备满足块设备的随机读写的要求,但是出于节约磁盘,提高效率的考虑,我们希望当磁头处于某一个位置的时候,一起将最近需要写在附近的数据写入,而不是这写一下,那写一下然后再回来,IO调度就是将上层发下来的IO请求的顺序进行重新排序以及对多个请求进行合并,这样就可以实现上述的提高效率、节约磁盘的目的。这种解决问题的思路使用电梯算法,一个运行中的电梯,一个人20楼->1楼,另外一个人15->5楼,电梯不会先将第一个人送到1楼再去15楼接第二个人将其送到5楼,而是从20楼下来,到15楼的时候停下接人,到5楼将第二个放下,最后到达1楼,一句话,电梯算法最终服务的优先顺序并不按照按按钮的先后顺序。Linux内核中提供了下面的几种电梯算法来实现IO调度:

  • No-op I/O scheduler只实现了简单的FIFO的,只进行最简单的合并,比较适合基于Flash的存储
  • Anticipatory I/O scheduler推迟IO请求(大约几个微秒),以期能对他们进行排序,获得更高效率
  • Deadline I/O scheduler试图把每次请求的延迟降到最低,同时也会对BIO重新排序,特别适用于读取较多的场合,比如数据库
  • CFQ I/O scheduler为系统内所有的任务分配均匀的IO带宽,提供一个公平的工作环境,在多媒体环境中,能保证音视频及时从磁盘中读取数据,是当前内核默认的调度器

我们可以通过内核传参的方式指定使用的调度算法

kernel elevator=deadline

或者,使用如下命令改变内核调度算法

echo SCHEDULER > /sys/block/DEVICE/queue/scheduler

Page->Segment->Block VS Sector

VS左面的是数据交互中的内存部分,Page就是内存映射的最小单位; Segment就是一个Page中我们要操作的一部分,由若干个相邻的块组成; Block是逻辑上的进行数据存取的最小单位,是文件系统的抽象,逻辑块的大小是在格式化的时候确定的, 一个 Block 最多仅能容纳一个文件(即不存在多个文件同一个block的情况)。如果一个文件比block小,他也会占用一个block,因而block中空余的空间会浪费掉。而一个大文件,可以占多个甚至数十个成百上千万的block。Linux内核要求 Block_Size = Sector_Size * (2的n次方),并且Block_Size <= 内存的Page_Size(页大小), 如ext2 fs的block缺省是4k。若block太大,则存取小文件时,有空间浪费的问题;若block太小,则硬盘的 Block 数目会大增,而造成 inode 在指向 block 的时候的一些搜寻时间的增加,又会造成大文件读写方面的效率较差

VS右边是物理上的概念,磁盘中一个Sector是512Byte,SSD中一个Sector是4K

核心结构与方法简述

核心结构

  • gendisk是一个物理磁盘或分区在内核中的描述
  • block_device_operations描述磁盘的操作方法集,block_device_operations之于gendisk,类似于file_operations之于cdev

  • request_queue对象表示针对一个gendisk对象的所有请求的队列,是相应gendisk对象的一个域
  • request表示经过IO调度之后的针对一个gendisk(磁盘)的一个"请求",是request_queue的一个节点。多个request构成了一个request_queue
  • bio表示应用程序对一个gendisk(磁盘)原始的访问请求,一个bio由多个bio_vec,多个bio经过IO调度和合并之后可以形成一个request。
  • bio_vec描述的应用层准备读写一个gendisk(磁盘)时需要使用的内存页page的一部分,即上文中的"段",多个bio_vec和bio_iter形成一个bio
  • bvec_iter描述一个bio_vec中的一个sector信息

他们之间的关系可以用下图表示

核心方法

  • set_capacity()设置gendisk对应的磁盘的物理参数
  • blk_init_queue()分配+初始化+绑定一个有IO调度的gendisk的requst_queue,处理函数是**void (request_fn_proc) (struct request_queue *q);**类型
  • blk_alloc_queue() 分配+初始化一个没有IO调度的gendisk的request_queue,
  • blk_queue_make_request()绑定处理函数到一个没有IO调度的request_queue,处理函数函数是void (make_request_fn) (struct request_queue q, struct bio bio);类型

  • __rq_for_each_bio()遍历一个request中的所有的bio
  • bio_for_each_segment()遍历一个bio中所有的segment
  • rq_for_each_segment()遍历一个request中的所有的bio中的所有的segment
    最后三个遍历算法都是用在request_queue绑定的处理函数中,这个函数负责对上层请求的处理。

核心结构与方法详述

gendisk

同样是面向对象的设计方法,Linux内核使用gendisk对象描述一个系统的中的块设备,类似于Windows系统中的磁盘分区和物理磁盘的关系,OS眼中的磁盘都是逻辑磁盘,也就是一个磁盘分区,一个物理磁盘可以对应多个磁盘分区,在Linux中,这个gendisk就是用来描述一个逻辑磁盘,也就是一个磁盘分区。

165 struct gendisk {169         int major;                      /* major number of driver */170         int first_minor;171         int minors;   174         char disk_name[DISK_NAME_LEN];  /* name of major driver */175         char *(*devnode)(struct gendisk *gd, umode_t *mode);177         unsigned int events;            /* supported events */178         unsigned int async_events;      /* async events, subset of all */185         struct disk_part_tbl __rcu *part_tbl;186         struct hd_struct part0;188         const struct block_device_operations *fops;189         struct request_queue *queue;190         void *private_data;192         int flags;193         struct device *driverfs_dev;  // FIXME: remove194         struct kobject *slave_dir;196         struct timer_rand_state *random;197         atomic_t sync_io;               /* RAID */198         struct disk_events *ev;200         struct blk_integrity *integrity;202         int node_id;203 };

struct gendisk
--169-->驱动的主设备号
--170-->第一个次设备号
--171-->次设备号的数量,即允许的最大分区的数量,1表示不允许分区
--174-->设备名称
--185-->分区表数组首地址
--186-->第一个分区,相当于part_tbl->part[0]
--188-->操作方法集指针
--189-->请求对象指针
--190-->私有数据指针
--193-->表示这是一个设备

gendisk是一个动态分配的结构体,所以不要自己手动来分配,而是使用内核相应的API来分配,其中会做一些初始化的工作

struct gendisk *alloc_disk(int minors);//注册gendisk类型对象到内核void add_disk(struct gendisk *disk);//从内核注销gendisk对象void del_gendisk(struct gendisk *gp);

上面几个API是一个块设备驱动中必不可少的部分,下面的两个主要是用来内核对于设备管理用的,通常不要驱动来实现

//对gendisk的引用计数+1struct kobject *get_disk(struct gendisk *disk);//对gendisk的引用计数-1void put_disk(struct gendisk *disk);

这两个API最终回调用kobject *get_disk() 和kobject_put()来实现对设备的引用计数

block_device_operations

和字符设备一样,如果使用/dev接口访问块设备,最终就会回调这个操作方法集的注册函数

//include/linux/blkdev.h1558 struct block_device_operations {1559         int (*open) (struct block_device *, fmode_t);1560         void (*release) (struct gendisk *, fmode_t);1561         int (*ioctl) (struct block_device *, fmode_t, unsigned, unsigned long);1562         int (*compat_ioctl) (struct block_device *, fmode_t, unsigned, unsigned long);1563         int (*direct_access) (struct block_device *, sector_t,1564                                                 void **, unsigned long *);1565         unsigned int (*check_events) (struct gendisk *disk,1566                                       unsigned int clearing);1568         int (*media_changed) (struct gendisk *);1569         void (*unlock_native_capacity) (struct gendisk *);1570         int (*revalidate_disk) (struct gendisk *);1571         int (*getgeo)(struct block_device *, struct hd_geometry *);1573         void (*swap_slot_free_notify) (struct block_device *, unsigned long);1574         struct module *owner;1575 };

struct block_device_operations
--1559-->当应用层打开一个块设备的时候被回调
--1560-->当应用层关闭一个块设备的时候被回调
--1562-->相当于file_operations里的compat_ioctl,不过块设备的ioctl包含大量的标准操作,所以在这个接口实现的操作很少
--1567-->在移动块设备中测试介质是否改变的方法,已经过时,同样的功能被check_event()实现
--1571-->即get geometry,获取驱动器的几何信息,获取到的信息会被填充在一个hd_geometry结构中
--1574-->模块所属,通常填THIS_MODULE

request_queue

每一个gendisk对象都有一个request_queue对象,前文说过,块设备有两种访问接口,一种是/dev下,一种是通过文件系统,后者经过IO调度在这个gendisk->request_queue上增加请求,最终回调与request_queue绑定的处理函数,将这些请求向下变成具体的硬件操作

 294 struct request_queue { 298         struct list_head        queue_head;  300         struct elevator_queue   *elevator; 472 };

struct request_queue
--298-->请求队列的链表头
--300-->请求队列使用的IO调度算法, 通过内核启动参数来选择: kernel elevator=deadline
request_queue_t和gendisk一样需要使用内核API来分配并初始化,里面大量的成员不要直接操作, 此外, 请求队列如果要正常工作还需要绑定到一个处理函数中, 当请求队列不为空时, 处理函数会被回调, 这就是块设备驱动中处理请求的核心部分!

从驱动模型的角度来说, 块设备主要分为两类需要IO调度的和不需要IO调度的, 前者包括磁盘, 光盘等, 后者包括Flash, SD卡等, 为了保证模型的统一性 , Linux中对这两种使用同样的模型但是通过不同的API来完成上述的初始化绑定

有IO调度类设备API

//初始化+绑定struct request_queue *blk_init_queue(request_fn_proc *rfn, spinlock_t *lock)   

无IO调度类设备API

//初始化struct request_queue *blk_alloc_queue(gfp_t gfp_mask) //绑定 void blk_queue_make_request(struct request_queue *q, make_request_fn *mfn)

共用API

针对请求队列的操作是块设备的一个核心任务, 其实质就是对请求队列操作函数的编写, 这个函数的主要功能就是从请求队列中获取请求并根据请求进行相应的操作 内核中已经提供了大量的API供该函数使用

//清除请求队列, 通常在卸载函数中使用void blk_cleanup_queue(struct request_queue *q)  //从队列中去除请求blkdev_dequeue_request()//提取请求struct request *blk_fetch_request(struct request_queue *q)//从队列中去除请求struct request *blk_peek_request(struct request_queue *q)//启停请求队列, 当设备进入到不能处理请求队列的状态时,应通知通用块层void blk_stop_queue(struct request_queue *q) void blk_start_queue(struct request_queue *q)   

request

  97 struct request {  98         struct list_head queuelist; 104         struct request_queue *q; 117         struct bio *bio; 118         struct bio *biotail; 119  120         struct hlist_node hash; /* merge hash */ 126         union { 127                 struct rb_node rb_node; /* sort/lookup */ 128                 void *completion_data; 129         }; 137         union { 138                 struct { 139                         struct io_cq            *icq; 140                         void                    *priv[2]; 141                 } elv; 142  143                 struct { 144                         unsigned int            seq; 145                         struct list_head        list;             146                         rq_end_io_fn            *saved_end_io; 147                 } flush; 148         }; 149  150         struct gendisk *rq_disk; 151         struct hd_struct *part;            199 };

struct request
--98-->将这个request挂接到链表的节点
--104-->这个request从属的request_queue
--117-->组成这个request的bio链表的头指针
--118-->组成这个request的bio链表的尾指针
--120-->内核hash表头指针

bio

bio用来描述单一的I/O请求,它记录了一次I/O操作所必需的相关信息,如用于I/O操作的数据缓存位置,,I/O操作的块设备起始扇区,是读操作还是写操作等等

 46 struct bio { 47         struct bio              *bi_next;       /* request queue link */ 48         struct block_device     *bi_bdev; 49         unsigned long           bi_flags;       /* status, command, etc */ 50         unsigned long           bi_rw;          /* bottom bits READ/WRITE, 51                                                  * top bits priority 52                                                  */ 54         struct bvec_iter        bi_iter; 59         unsigned int            bi_phys_segments; 65         unsigned int            bi_seg_front_size; 66         unsigned int            bi_seg_back_size; 68         atomic_t                bi_remaining; 70         bio_end_io_t            *bi_end_io; 72         void                    *bi_private; 85         unsigned short          bi_vcnt;        /* how many bio_vec's */ 91         unsigned short          bi_max_vecs;    /* max bvl_vecs we can hold */104         struct bio_vec          bi_inline_vecs[0];105 };

struct bio
--47-->指向链表中下一个bio的指针bi_next
--50-->bi_rw低位表示读写READ/WRITE, 高位表示优先级
--90-->bio对象包含bio_vec对象的数目
--91-->这个bio能承载的最大的io_vec的数目
--95-->该bio描述的第一个io_vec
--104-->表示这个bio包含的bio_vec变量的数组,即这个bio对应的某一个page中的一"段"内存

bio_vec

描述指定page中的一块连续的区域,在bio中描述的就是一个page中的一个"段"(segment)

 25 struct bio_vec {    26         struct page     *bv_page; 27         unsigned int    bv_len;  28         unsigned int    bv_offset; 29 };  

struct bio_vec
--26-->描述的page
--27-->描述的长度
--28-->描述的起始地址偏移量

bio_iter

用于记录当前bvec被处理的情况,用于遍历bio

 31 struct bvec_iter {                                                           32         sector_t                bi_sector;      /* device address in 512 byt 33                                                    sectors */ 34         unsigned int            bi_size;        /* residual I/O count */ 35  36         unsigned int            bi_idx;         /* current index into bvl_ve 37  38         unsigned int            bi_bvec_done;   /* number of bytes completed 39                                                    current bvec */ 40 };

__rq_for_each_bio()

遍历一个request中的每一个bio

 738 #define __rq_for_each_bio(_bio, rq)     \                                   739         if ((rq->bio))                  \       740                 for (_bio = (rq)->bio; _bio; _bio = _bio->bi_next)

bio_for_each_segment()

遍历一个bio中的每一个segment

242 #define bio_for_each_segment(bvl, bio, iter)                            \   243         __bio_for_each_segment(bvl, bio, iter, (bio)->bi_iter)

rq_for_each_segment()

遍历一个request中的每一个segment

 742 #define rq_for_each_segment(bvl, _rq, _iter)                    \ 743         __rq_for_each_bio(_iter.bio, _rq)                       \ 744                 bio_for_each_segment(bvl, _iter.bio, _iter.iter)

小结

遍历request_queue,绑定函数的一个必要的工作就是将request_queue中的数据取出, 所以遍历是必不可少的, 针对有IO调度的设备, 我们需要从中提取请求再继续操作, 对于没有IO调度的设备, 我们可以直接从request_queue中提取bio进行操作, 这两种处理函数的接口就不一样,下面的例子是对LDD3中的代码进行了修剪而来的,相应的API使用的是3.14版本,可以看出这两种模式的使用方法的不同。

sbull_init
           └── setup_device
                        ├──sbull_make_request
                        │            ├──sbull_xfer_bio
                        │            └──sbull_transfer
                        └──sbull_full_request
                                    ├──blk_fetch_request
                                    └──sbull_xfer_request
                                               ├── __rq_for_each_bio
                                               └── sbull_xfer_bio
                                                            └──sbull_transfer

/* * Handle an I/O request. * 实现扇区的读写 */static void sbull_transfer(struct sbull_dev *dev, unsigned long sector,unsigned long nsect, char *buffer, int write){    unsigned long offset = sector*KERNEL_SECTOR_SIZE;    unsigned long nbytes = nsect*KERNEL_SECTOR_SIZE;    if (write)        memcpy(dev->data + offset, buffer, nbytes);    else        memcpy(buffer, dev->data + offset, nbytes);}/* * Transfer a single BIO. */static int sbull_xfer_bio(struct sbull_dev *dev, struct bio *bio){    struct bvec_iter i; //用来遍历bio_vec对象    struct bio_vec bvec;    sector_t sector = bio->bi_iter.bi_sector;    /* Do each segment independently. */    bio_for_each_segment(bvec, bio, i) { //bvec会遍历bio中每一个bio_vec对象         char *buffer = __bio_kmap_atomic(bio, i, KM_USER0);        sbull_transfer(dev, sector, bio_cur_bytes(bio)>>9 ,buffer, bio_data_dir(bio) == WRITE);        sector += bio_cur_bytes(bio)>>9;        __bio_kunmap_atomic(bio, KM_USER0);    }    return 0; /* Always "succeed" */}/* * Transfer a full request. */static int sbull_xfer_request(struct sbull_dev *dev, struct request *req){    struct bio *bio;    int nsect = 0;        __rq_for_each_bio(bio, req) {         sbull_xfer_bio(dev, bio);        nsect += bio->bi_size/KERNEL_SECTOR_SIZE;    }    return nsect;}/* * Smarter request function that "handles clustering".*/static void sbull_full_request(struct request_queue *q){    struct request *req;    int nsect;    struct sbull_dev *dev ;    int i = 0;    while ((req = blk_fetch_request(q)) != NULL) {        dev = req->rq_disk->private_data;        nsect = sbull_xfer_request(dev, req);        __blk_end_request(req, 0, (nsect<<9));         printk ("i = %d\n", ++i);    }}//The direct make request versionstatic void sbull_make_request(struct request_queue *q, struct bio *bio){    struct sbull_dev *dev = q->queuedata;    int status;    status = sbull_xfer_bio(dev, bio);    bio_endio(bio, status);      return;}/* * The device operations structure. */static struct block_device_operations sbull_ops = {    .owner  = THIS_MODULE,    .open   = sbull_open,    .release= sbull_release,    .getgeo = sbull_getgeo,};/* * Set up our internal device. */static void setup_device(struct sbull_dev *dev, int which){    /*     * Get some memory.     */    memset (dev, 0, sizeof (struct sbull_dev));    dev->size = nsectors * hardsect_size;    dev->data = vmalloc(dev->size);                /*     * The I/O queue, depending on whether we are using our own     * make_request function or not.     */    switch (request_mode) {    case RM_NOQUEUE:        dev->queue = blk_alloc_queue(GFP_KERNEL);        blk_queue_make_request(dev->queue, sbull_make_request);        break;    case RM_FULL:        dev->queue = blk_init_queue(sbull_full_request, &dev->lock);        break;    }    dev->queue->queuedata = dev;    /*     * And the gendisk structure.     */    dev->gd = alloc_disk(SBULL_MINORS);    dev->gd->major = sbull_major;    dev->gd->first_minor = which*SBULL_MINORS;    dev->gd->fops = &sbull_ops;    dev->gd->queue = dev->queue;    dev->gd->private_data = dev;    snprintf (dev->gd->disk_name, 32, "sbull%c", which + 'a');    set_capacity(dev->gd, nsectors*(hardsect_size/KERNEL_SECTOR_SIZE));    add_disk(dev->gd);    return;}static int __init sbull_init(void){    int i;    /*     * Get registered.     */    sbull_major = register_blkdev(sbull_major, "sbull");    /*     * Allocate the device array, and initialize each one.     */    Devices = (struct sbull_dev *)kmalloc(ndevices*sizeof (struct sbull_dev), GFP_KERNEL);    for (i = 0; i < ndevices; i++)         setup_device(Devices + i, i);    return 0;}
分类: Lv3_Kernel&Driver
0 0
原创粉丝点击