本文隶属于专题系列: 十天学Linux内核

真的是悲喜交加呀,本来这个寒假早上8点都去练车,两个小时之后再来实验室陪伴Linux内核,但是今天教练说没名额考试了,好纠结,不过想想就可以睡懒觉了,哈哈,自从大三寒假以来还没睡过懒觉呢,现在也有更多的时间来分享自己学习Linux内核的感受,前几天觉得就是自己也有些不懂的,相信大家看了也是很模糊,以后我会标志出来自己不懂的,希望大神们指教,也希望大家多多指点,共同攻克Linux内核,今天将讲到处理器是如何与其它设备进行交互的,内核又是如何响应和控制这些交互的,今天内容不多但是很关键,写的不好希望大家批评,纯手打。

Linux内核是如何将软硬件结合起来的呢?这里我们将一起探究内核与周围硬件主要是文件IO和硬件设备之间的关系,来解释这个问题。处理器与周围设备的通信依赖于一系列的电路电线,总线就是具有类似功能的电线,设备与处理器通信主要是通过地址总线,数据总线,控制总线来实现,这里在学习单片机原理的时候也提到过,这里对系统的基本结构就不多说了,觉得更新快,不好讲解,也没什么好总结的,大家看看相关书籍就行。了解到设备可以当做文件系统中的文件来处理,其细节都可隐藏在内核中,而对应用程序员透明,当进程对设备文件应用某一系统调用的时候,只要将这一系统调用转换成某种设备函数就足够了,其中设备驱动程序定义了这些函数,接下来看看这些设备类型。其中应用层,文件系统层,通用块设备层和设备驱动程序之间的关系如下图,这里贴出来供大家了解一下。读写块设备如下:

先介绍块设备,设备驱动在驱动程序初始化时为自己注册,将这个驱动程序加入内核的驱动程序表中,并将设备号映射到数据结构block_device_operations中,数据结构block_device_operations包含了系统中启动和停止给设定块设备的函数(在include/linux/fs.h上。

struct block_operations{
    int (*open) (struct inode *,struct file *);
    int (*release) (struct inode *,struct file*);  //open()和release()都是同步的
    int (*ioctl) (struct node *,struct file *,unsigned, unsigned long);
    int (*media_changed) (struct gendisk *);
    int (*revalidate_disk) (struct gendisk *);
    struct module *owner;
};

从处理器的角度来看,在适合的cidao4上定位磁头并将磁盘转到相应的块要花费相当长的时间,这种延迟迫使内核实现了系统请求队列,在Linux2.6中,每个块设备都有自己的请求队列,以便管理对该设备的IO口请求,进程只有在获得请求队列锁之后才能 更新设备的请求队列,让我们先来看看request_queue结构(这些代码都是自己敲出来的,然后分析,分析不好的请各位大神批评改正。)这些代码都可以在include/linux/blkdev.h中查看。

struct request_queue
{
    struct list_head queue_head;  //指向请求队列对首的指针
    struct request  *last_merge;  //加到请求队列的最后一个请求
    elevator_t  elevator;      //这个不懂,求大神指教 struct request_list rq;     //由两个wait_queue组成,分别用于块设备读请求队列和写请求队列
...
    request_fn_proc *request_fn;
    merge_request_fn *back_merge_fn;
    merge_request_fn *front_merge_fn;
    merge_requests_fn *merge_requests_fn;
    make_request_fn *make_request_fn;
    prep_rq_fn *prep_rq_fn;
    unplug_fn *unplug_fn;
    merge_bvec_fn *merge_bvec_fn;
    activity_fn *activity_fn;      //定义调度程序相关函数来控制如何管理块设备的请求
...
    struct time_list unplug_timer;
    int unplug_thresh;
    unsigned long  unplug_delay;
    struct work_struct unplug_work;
    struct backing_dev_info backing_dev_info;    //用于去掉设备的IO调度函数
...
    void *queuedata;
    void *activity_data;  //这些是对设备和设备驱动程序相关的队列进行管理
...
    unsigned long  bounce_pfn;
    int  bounce_gfp;    //是指内核将高端内存缓存冲区的IO请求copy到低端内存缓冲区去
    unsigned long queue_flags;//变量queue_flags存储一个或者多个队列标志,参见下表格。
标志名称 功能
QUEUE_FLAG_CLUSTER 将介几个段合成一个
QUEUE_FLAG_QUEUED 使用通用标志队列
QUEUE_FLAG_STOPPED 队列被停止
QUEUE_FLAG_READFULL 读队列已经满了
QUEUE_FLAG_WRITEFULL 写队列已经满了
QUEUE_FLAG_DEAD 队列被撤销
QUEUE_FLAG_REENTER 避免重入
QUEUE_FLAG_PLUGGED 插入队列
spinlock_t *queue_lock;
struct kobject kobj;
unsigned long nr_requests;  
unsigned int nr_congestion_on;
unsigned int nr_congestion_off;
unsigned short max_sectors;
unsigned short max_phys_segments;
unsigned short max_hw_segments;
unsigned short hardsect_size;
unsigned int max_segment_size;
unsigned long seg_boundary_mask;
unsigned long dma_alignment;
struct blk_queue_tag *queue_tags;
atomic_t refcnt;
unsigned int in_flight;
unsigned int sg_timeout;
unsigned int sg_reserved_size;  //前面这些变量定义了请求队列中可管理的资源
};

Linux内核通过在设备的_init函数中调用下列函数来初始化块设备的请求队列,这些函数中,,可以看出请求对了内部的细节和相关帮助教程,在现在的Linux2.6内核中,每个块设备控制自己的锁,并且将自旋锁作为第二个参数来传递,其中第一个参数是块设备驱动程序提供的请求函数,下面的代码在drivers/block/11_rw_blk.c中查看得到。

request_queue_t *blk_init_queue(request_fn_proc *rfn,spinlock_t *lock)
{
    request_queue_t *q;
    static int printed;
    q = blk_alloc_queue(GFP_KERNEL);  //从内核的内存中分配空间队列,内容为0
    if(!q)
    return NULL;
    if(blk_init_free_list(q))  //初始化请求清单
       goto out_init;    //表示一直怕goto,懂但不会用
    if(!printed){
       printed = 1;
       printk("Using %s io scheduler\n",chosen_elevator->elevator_name);
    }
    if(elevator_init(q,chosen_elevator))  //这是个初始化的函数
       goto out_elv;
    q->request_fn = rfn;
    q->back_merge_fn = 11_back_merge_fn;
    q->front_merge_fn = 11_front_merge_fn;
    q->merge_requests_fn = 11_merge_requests_fn;
    q->prep_rq_fn = NULL;
    q->unplug_fn = generic_unplug_device;
    q->queue_flags = (1<<QUEUE_FLAG_CLUSTER);
    q->queue_lock = lock;    //上述赋值是将电梯调度程序相关的函数与该队列关联
    blk_queue_segment_boundary(q,0xffffffff);  //检查是否满足最小尺寸
    blk_queue_make_request(q,__make_request)  //设置驱动从队列删除
    blk_queue_max_segment_size(q,MAX_SEGMENT_SIZE);  //初始化归并段的上限
    blk_queue_max_hw_segments(q,MAX_HW_SEGMENTS);  //初始化物理设备可以处理的最大段数
    blk_queue_max_phys_segments(q,MAX_PHYS_SEGMENTS);  初始化每一请求的最大物理数目段
    return q0;  //返回已经初始化的队列
    out_elv:
    blk_cleanup_queue(q);
    out_init:
    kmem_cache_free(requestq_cachep,q);
    return NULL;  //错误事件中清除内存的一个例程
}

代码实在太难,我知道的也只是皮毛,那些都需要好好体会,如若有补充的希望各路大神能够多加改正我的缺点,现在来看看设备操作,基本 的通用块设备有open,close,ioctl以及request函数,请求队列不能直接被访问,但是可以通过一组帮助例程来访问,如下:

struct request *elv_next_request(request_queue_t *q)

这个帮助函数返回并指向下一个请求结构的指针,驱动程序可以通过查看该元素来收集所有信息,以确定它的的大小方向以及该请求相关的任何其他自定义操作,之后通过end_request()想内核报告这一信息:

void end_request(struct request *req,int uptodate)  //在请求队列中传递elev_next_request()获得的参数
{
    if(!end_that_request_first(req,uptpdate,req->hrad_cur_sectors))  //传输适合的扇区数
    {
        add_disk_randomness(req->rq_disk);  //加入系统熵池,表示不懂,求大神指教,
        blkdev_dequeue_request(req);  //删除请求结构
        end_that_request_last(req);  //收集统计信息并且释放可用的数据结构
    }
}

下面来介绍一下其它各种设备,与块设备不同,字符设备用来传送数据流,所有串行设备都是字符设备,与字符设备类似,网络设备的数据在物理层上串行传输,而时钟设备是基于硬件脉搏跳动的设备,其实就是时钟相关的,还有那终端设备,这里就稍微提及一下。因为这些都和输入输出相关,大家只要有个印象就行了。

小结

结束了分析代码之旅,小结一下今天主要的内容,今天主要分享的是Linux内核是如何处理输入输出操作的,具体讨论了Linux是如何表示块设备和它的接口的,也介绍了Linux调度程序并且重点分析了请求队列,上述敲的代码,我也还有好多不懂,只能自己慢慢去体会了,希望各路大神看了之后能够稍加提醒一下,哎,反正这个寒假没啥事了,就一直和内核作伴吧,这些写的不好,以后继续努力,fighting~

你可能感兴趣的内容
0条评论

dexcoder

这家伙太懒了 <( ̄ ﹌  ̄)>
Owner