flash闪存设备和SD插卡设备是嵌入式设备用到的主要存储设备,它们相当于PC机的硬盘。在嵌入设备特别是手持设备中,flash闪存是焊接在嵌入设备主板上的flash闪存芯片。在嵌入设备上有MMC/SD卡控制器及插槽,可通过MMC/SD来扩充存储空间。 嵌入设备的存储设备的空间划分及所有逻辑设备和文件系统示例列出如下图:
在嵌入设备上的flash芯片上blob和zImage直接按内存线性地址存储管理,对于flash芯片上留出的供用户使用的存储空间,使用MTDBLOCK块设备和JFFS2文件系统。对于flash芯片的分区表信息则以MTDCHAR字符设备来存储管理。 在嵌入设备上的MMC/SD插卡则由MMCBLOCK驱动程序和VFAT文件系统进行存储管理。本章分析了MTD设备和MMC/SD驱动程序。 Figure 3-1. UBI/MTD Integration
MTD内存技术设备Linux中MTD子系统在系统的硬件驱动程序和文件系统之间提供通用接口。在MTD上常用的文件文件系统是JFFS2日志闪存文件系统版本 2(Journaling Flash File System)。JFFS2用于微型嵌入式设备的原始闪存芯片的文件系统。JFFS2文件系统是日志结构化的,这意味着它基本上是一长列节点。每个节点包 含有关文件的部分信息 ― 可能是文件的名称、也许是一些数据。与Ext2文件系统相比,JFFS2因为有以下这些优点: JFFS2在扇区级别上执行闪存擦除/写/读操作要比Ext2文件系统好。JFFS2提供了比Ext2fs更好的崩溃/掉电安全保护。当需 要更改少量数据时,Ext2文件系统将整个扇区复制到内存(DRAM)中,在内存中合并新数据,并写回整个扇区。这意味着为了更改单个字,必须对整个扇区 (64 KB)执行读/擦除/写例程 ,这样做的效率非常低。JFFS2是附加文件而不是重写整个扇区,并且具有崩溃/掉电安全保护这一功能。 JFFS2是是为FLASH定制的文件系统,JFFS1实现了日志功能,JFFS2实现了压缩功能。它的整个设计提供了更好的闪存管理。JFFS2的 缺点很少,主要是当文件系统已满或接近满时,JFFS2会大大放慢运行速度。这是因为垃圾收集的问题。 MTD驱动程序是专门为基于闪存的设备所设计的,它提供了基于扇区的擦除和读写操作的更好的接口。MTD子系统支持众多的闪存设备,并且有越来越多的驱动程序正被添加进来以用于不同的闪存芯片。 MTD子系统提供了对字符设备MTD_CHAR和块设备MTD_BLOCK的支持。MTD_CHAR提供对闪存的原始字符访问,象通常的 IDE硬盘一样,在MTD_BLOCK块设备上可创建文件系统。MTD_CHAR字符设备文件是 /dev/mtd0、mtd1、mtd2等,MTD_BLOCK块设备文件是 /dev/mtdblock0、mtdblock1等等。 NAND和NOR是制作Flash的工艺,CFI和JEDEC是flash硬件提供的接口,linux通过这些用通用接口抽象出MTD设备。JFFS2文件系统就建立在MTD设备上。 NOR flash带有SRAM接口,可以直接存取内部的每一个字节。NAND器件使用串行I/O口来存取数据, 8个引脚用来传送控制、地址和数据信息。NAND读和写操作用512字节的块。 MTD内存技术设备层次结构MTD(memory technology device内存技术设备) 在硬件和文件系统层之间的提供了一个抽象的接口,MTD是用来访问内存设备(如:ROM、flash)的中间层,它将内存设备的共有特性抽取出来,从而使 增加新的内存设备驱动程序变得更简单。MTD的源代码都在/drivers/mtd目录中。 MTD中间层细分为四层,按从上到下依次为:设备节点、MTD设备层、MTD原始设备层和硬件驱动层。MTD中间层层次结构图如下: Flash硬件驱动层对应的是不同硬件的驱动程序,它负责驱动具体的硬件。例如:符合CFI接口标准的Flash芯片驱动驱动程序在drivers/mtd/chips目录中,NAND型Flash的驱动程序在/drivers/mtd/nand中。 在原始设备层中,各种内存设备抽象化为原始设备,原始设备实际上是一种块设备,MTD字符设备的读写函数也调用原始设备的操作函数来实现。 MTD使用MTD信息结构mtd_info来描述了原始设备的操作函数、各种信息,所有原始设备的信息也用一个全局的结构数组来描述,列出如下(在 drivers/mtd/mtdcore.c中): struct mtd_info *mtd_table[MAX_MTD_DEVICES]; 每个原始设备可能分成多个设备分区,设备分区是将一个内存分成多个块,每个设备分区用一个结构mtd_part来描述,所有的分区组成一个链表mtd_partitions,这个链表的声明列出如下(在drivers/mtd/mtdpart.c中): /* Our partition linked list */ static LIST_HEAD(mtd_partitions); MTD原始设备到具体设备之间存在的一些映射关系数据在drivers/mtd/maps/目录下的对应文件中。这些映射数据包括分区信息、I/O映射及 特定函数的映射等。这种映射关系用映射信息结构map_info描述。 在MTD设备层中,MTD字符设备通过注册的file operation函数集来操作设备,而这些函数是通过原始设备层的操作函数来实现的,即调用了块设备的操作函数。MTD块设备实际了从块层到块设备的接 口函数。所有的块设备组成一个数组*mtdblks[MAX_MTD_DEVICES],这个结构数组列出如下(在drivers/mtd /mtdblock.c中): static struct mtdblk_dev { struct mtd_info *mtd; int count; struct semaphore cache_sem; unsigned char *cache_data; unsigned long cache_offset; unsigned int cache_size; enum { STATE_EMPTY, STATE_CLEAN, STATE_DIRTY } cache_state; } *mtdblks[MAX_MTD_DEVICES]; 由于flash设备种类的多样性,MTD用MTD翻译层将三大类flash设备进行的封装。每大类设备有自己的操作函数集,它们的mtdblk_dev结构实例都存在mtdblks数组中。MTD设备在内核中的层次图如下图。
MTD原始设备层中封装了三大类设备,分别是Inverse Flash、NAND Flash和MTD。它们的上体读写方法不一样。这里只分析了MTD,因为它是最常用的。 设备层和原始设备层的函数调用关系原始设备层主要是通过mtd_info结构来管理设备,函数add_mtd_partitions()和del_mtd_partitions() 将的设备分区的mtd_info结构加入mtd_table数组中,mtdpart.c中还实现了part_read、part_write等函数,这些 函数注册在每个分区中,指向主分区的read、write函数,之所以这样做而不直接将主分区的read、write函数连接到每个分区中的原因是因为函 数中的参数mtd_info会被调用者置为函数所属的mtd_info,即mtd->read(mtd…),而参数mtd_info其实应该指向主 分区。 设备层和原始设备层的函数调用关系图如图2。MTD各种结构之间的关系图如图3。 MTD相关结构MTD块设备的结构mtdblk_dev代表了一个闪存块设备,MTD字符设备没有相对应的结构。结构mtdblk_dev列出如下:struct mtdblk_dev { struct mtd_info mtd; / Locked */ 下层原始设备层的MTD设备结构 int count; struct semaphore cache_sem; unsigned char *cache_data; //缓冲区数据地址 unsigned long cache_offset;//在缓冲区中读写位置偏移 //缓冲区中的读写数据大小(通常被设置为MTD设备的erasesize) unsigned int cache_size; enum { STATE_EMPTY, STATE_CLEAN, STATE_DIRTY } cache_state;//缓冲区状态 } 结构mtd_info描述了一个MTD原始设备,每个分区也被实现为一个mtd_info,如果有两个MTD原始设备,每个上有三个分区,在系统中就一共 有6个mtd_info结构,这些mtd_info的指针被存放在名为mtd_table的数组里。结构mtd_info分析如下: struct mtd_info { 设备层的mtdblcok设备的notifier声明如下: static struct mtd_notifier notifier = {mtd_notify_add, mtd_notify_remove, NULL}; mtd_part结构是用于描述MTD原始设备分区的,结构mtd_part中的list成员链成一个链表mtd_partitons。每个 mtd_part结构中的mtd_info结构用于描述本分区,被加入mtd_table数组中,其中mtd_info结构大部分成员由其主分区 mtd_part->master决定,各种函数也指向主分区的相应函数。 结构mtd_part列出如下: /* Our partition linked list */ static LIST_HEAD(mtd_partitions); MTD原始设备分区的链表 struct mtd_part { struct mtd_info mtd; //分区的信息(大部分由其master决定) struct mtd_info *master; //该分区的主分区 u_int32_t offset; //该分区的偏移地址 int index; //分区号 struct list_head list; }; 结构mtd_partition描述mtd设备分区的结构,在MTD原始设备层调用函数add_mtd_partions时传递分区信息使用。结构列出如下(在include/linux/mtd/partition.h中): struct mtd_partition { char *name; //分区名 u_int32_t size; //分区大小 u_int32_t offset; //在主MTD空间的偏移 u_int32_t mask_flags; };
MTD块设备初始化图 函数init_mtdblock调用层次图在具体的设备驱动程序初始化时,它会添加一个MTD设备结构到mtd_table数组中。MTD翻译层通过查找这个数组,可访问到各个具体设备驱动程序。 函数init_mtdblock注册一个MTD翻译层设备,初始化处理请求的线程,赋上MTD翻译层设备操作函数集实例,注册这个设备的通用硬盘结构。函数init_mtdblock调用层次图如上图。 mtd块设备驱动程序利用一个线程,当有读写请求时,从缓冲区将数据写入块设备或从块设备读入到缓冲区中。 函数init_mtdblock分析如下(在drivers/mtd/mtdblock.c中):static int __init init_mtdblock(void) { return register_mtd_blktrans(&mtdblock_tr); } MTD翻译层设备操作函数集实例列出如下: static struct mtd_blktrans_ops mtdblock_tr = { 函数mtd_blktrans_request是MTD设备的请求处理函数,当请求队列中的请求需要设备处理时调用这个函数。在MTD设备中,函数 mtd_blktrans_request唤醒了MTD块设备的线程来进行处理。函数列出如下(在drivers/mtd/mtd_blkdevs.c 中): static void mtd_blktrans_request(struct request_queue *rq) 线程函数mtd_blktrans_thread处理块设备的读写请求,函数mtd_blktrans_thread列出如下: static int mtd_blktrans_thread(void *arg) 函数do_blktrans_request完成请求的具体操作,它调用MTD翻译层设备操作函数集实例中的具体函数来进行处理。函数do_blktrans_request分析如下: static int do_blktrans_request(struct mtd_blktrans_ops *tr, struct mtd_blktrans_dev *dev, struct request *req) { unsigned long block, nsect; char *buf; block = req->sector; nsect = req->current_nr_sectors; buf = req->buffer; if (!(req->flags & REQ_CMD)) return 0; //如果读写的扇区数超出了块设备的容量,返回 if (block + nsect > get_capacity(req->rq_disk)) return 0; //根据(rq)->flags & 1标识来判断操作方式,调用具体的设备操作函数 switch(rq_data_dir(req)) { case READ: for (; nsect > 0; nsect--, block++, buf += 512) if (tr->readsect(dev, block, buf)) return 0; return 1; case WRITE: if (!tr->writesect) return 0; for (; nsect > 0; nsect--, block++, buf += 512) if (tr->writesect(dev, block, buf)) return 0; return 1; default: printk(KERN_NOTICE “Unknown request %ld\n”, rq_data_dir(req)); return 0; } }
static struct mtd_notifier blktrans_notifier = { .add = blktrans_notify_add, .remove = blktrans_notify_remove, }; 函数register_mtd_user注册MTD设备,通过分配通盘硬盘结构来激活每个MTD设备,使其出现在系统中。函数register_mtd_user调用层次图如上图。 函数register_mtd_user分析如下(在drivers/mtd/mtdcore.c中): static LIST_HEAD(mtd_notifiers); void register_mtd_user (struct mtd_notifier *new) { int i; down(&mtd_table_mutex); //将MTD块设备的通知结构实例blktrans_notifier加入 //到全局链表mtd_notifiers上 list_add(&new->list, &mtd_notifiers); //模块引用计数加1 __module_get(THIS_MODULE); //对每个MTD块设备调用MTD通知结构实例的加设备函数 for (i=0; i< MAX_MTD_DEVICES; i++) if (mtd_table[i]) new->add(mtd_table[i]); up(&mtd_table_mutex); } 函数blktrans_notify_add通知MTD翻译层将设备加入到链表blktrans_majors中,并分配处理每个MTD分区对应的通用硬盘结构。 函数blktrans_notify_add分析如下(在drivers/mtd/mtd_blkdevs.c中): static LIST_HEAD(blktrans_majors); static void blktrans_notify_add(struct mtd_info *mtd) { struct list_head *this; if (mtd->type == MTD_ABSENT)//设备不存在 return; //遍历每个MTD主块设备 list_for_each(this, &blktrans_majors) { struct mtd_blktrans_ops *tr = list_entry(this, struct mtd_blktrans_ops, list); tr->add_mtd(tr, mtd); } } 函数mtdblock_add_mtd分配了MTD翻译层块设备结构,初始化后加到MTD翻译层块设备链表中,函数mtdblock_add_mtd分析如下: static void mtdblock_add_mtd(struct mtd_blktrans_ops *tr, 函数add_mtd_blktrans_dev给每个MTD主设备分配设备号,并加到MTD设备链表对应位置上。然后给每个MTD设备分区分配一个通用硬盘结构,初始化这个通用硬盘结构后,再注册通用硬盘。这样通过通用硬盘就可以访问到每个MTD设备分区。 函数add_mtd_blktrans_dev分析如下(在drivers/mtd/mtd_blkdevs.c中): int add_mtd_blktrans_dev(struct mtd_blktrans_dev *new) { struct mtd_blktrans_ops *tr = new->tr; struct list_head *this; int last_devnum = -1; struct gendisk *gd; if (!down_trylock(&mtd_table_mutex)) { up(&mtd_table_mutex); BUG(); } //遍历MTD每个主块设备 list_for_each(this, &tr->devs) { struct mtd_blktrans_dev *d = list_entry(this, struct mtd_blktrans_dev,list); if (new->devnum == -1) {//如果没有设备号 //使用第一个空闲的设备号 if (d->devnum != last_devnum+1) { //找到空闲设备号,并把设备加到链表的尾部 new->devnum = last_devnum+1; list_add_tail(&new->list, &d->list); goto added; } } else if (d->devnum == new->devnum) {//设备号已被使用 /* Required number taken */ return -EBUSY; } else if (d->devnum > new->devnum) { //申请的设备号是空闲的,加到链表的尾部 list_add_tail(&new->list, &d->list); goto added; } last_devnum = d->devnum; } if (new->devnum == -1)//如果新设备的设备号为-1,就赋上(最后一个设备号+1) new->devnum = last_devnum+1; //所有的设备号*分区数 > 256 if ((new->devnum << tr->part_bits) > 256) { return -EBUSY; } init_MUTEX(&new->sem); list_add_tail(&new->list, &tr->devs);//加到链表尾部 added: if (!tr->writesect) new->readonly = 1; //分配通知硬盘结构gendisk,每分区一个 gd = alloc_disk(1 << tr->part_bits); if (!gd) { list_del(&new->list); return -ENOMEM; } //初始化通用硬盘结构 gd->major = tr->major; gd->first_minor = (new->devnum) << tr->part_bits; gd->fops = &mtd_blktrans_ops; snprintf(gd->disk_name, sizeof(gd->disk_name), “%s%c”, tr->name, (tr->part_bits?’a’:’0’) + new->devnum); snprintf(gd->devfs_name, sizeof(gd->devfs_name), “%s/%c”, tr->name, (tr->part_bits?’a’:’0’) + new->devnum); /* 2.5 has capacity in units of 512 bytes while still having BLOCK_SIZE_BITS set to 10. Just to keep us amused. */ set_capacity(gd, (new->size * new->blksize) >> 9); gd->private_data = new; //通用硬盘结构的私有数据指向翻译层的MTD设备 new->blkcore_priv = gd; gd->queue = tr->blkcore_priv->rq; //设置请求队列 if (new->readonly) set_disk_ro(gd, 1); //设置硬盘读写模式 add_disk(gd);//加通用硬盘结构到全局链表中 return 0; }
MTD块设备的读写操作MTD翻译层设备操作函数集实例mtdblock_tr有对MTD设备的各种操作函数,这些操作函数调用了mtd_info结构中的操作函数。这里 只分析了函数mtdblock_writesect,它的源代码都在drivers/mtd/mtdblock.c中。由于flash设备需要先擦除一个 扇区,再才能写一个扇区,因而,使用了缓存来帮助不是正好一个扇区的数据的写操作。 函数mtdblock_writesect将数据写入到flash设备中。函数分析如下:static int mtdblock_writesect(struct mtd_blktrans_dev *dev, unsigned long block, char *buf) { //从MTD块设备数组中得到块设备结构 struct mtdblk_dev *mtdblk = mtdblks[dev->devnum]; if (unlikely(!mtdblk->cache_data && mtdblk->cache_size)) { //分配块设备用于擦除的缓存空间 mtdblk->cache_data = vmalloc(mtdblk->mtd->erasesize); if (!mtdblk->cache_data) return -EINTR; } //从位置block开始写一个扇区(512字节) return do_cached_write(mtdblk, block<<9, 512, buf); } 函数do_cached_write将数据写入到设备,由于flash设备需要先擦除再才能写入,因而,在数据块大小不是正好扇区大小,需要通过缓存凑合成一个扇区时,才能写入到设备。 函数do_cached_write分析如下: static int do_cached_write (struct mtdblk_dev *mtdblk, unsigned long pos, int len, const char *buf) { struct mtd_info *mtd = mtdblk->mtd; //得到擦除缓冲区大小 unsigned int sect_size = mtdblk->cache_size; size_t retlen; int ret; if (!sect_size)//如果块设备的缓冲大小为0,直接写设备 return MTD_WRITE (mtd, pos, len, &retlen, buf); while (len > 0) { //将要写的在设备上的位置pos地址处,长度为len // |<-offset-->|<-size-->| // ----------sect_start---|pos-----len-| // |<- sect_size ->| //计算扇区开始位置 unsigned long sect_start = (pos/sect_size)*sect_size; //计算出相对扇区开始位置的偏移 unsigned int offset = pos - sect_start; //计算出所写的大小 unsigned int size = sect_size - offset; if( size > len ) size = len; if (size == sect_size) {//正好是擦除缓冲区大小 //直接写入,不需要通过缓冲区 ret = erase_write (mtd, pos, size, buf); if (ret) return ret; } else { //只有部分扇区大小的数据,需通过缓冲区补充成扇区大小 //方法是:先从设备中读出数据到缓冲区,再将buf中数据拷贝到缓冲区, //这样,凑合成一个扇区大小的数据,再把缓冲区数据写入设备。 //如果缓冲区数据是脏的,把缓冲区数据写设备 if (mtdblk->cache_state == STATE_DIRTY && mtdblk->cache_offset != sect_start) { ret = write_cached_data(mtdblk); if (ret) return ret; } if (mtdblk->cache_state == STATE_EMPTY || mtdblk->cache_offset != sect_start) { //把当前的扇区数据填充缓冲区 mtdblk->cache_state = STATE_EMPTY; ret = MTD_READ(mtd, sect_start, sect_size, &retlen, mtdblk->cache_data); if (ret) return ret; if (retlen != sect_size) return -EIO; mtdblk->cache_offset = sect_start; mtdblk->cache_size = sect_size; mtdblk->cache_state = STATE_CLEAN; } //将数据从buf中拷贝到缓冲区中 memcpy (mtdblk->cache_data + offset, buf, size); mtdblk->cache_state = STATE_DIRTY; } buf += size; pos += size; len -= size; } return 0; } 函数write_cached_data将设备缓存中的数据写入到设备,在写完缓存中数据时,缓存的状态发生变化。函数write_cached_data列出如下: static int write_cached_data (struct mtdblk_dev *mtdblk) 函数erase_write写一扇区数据到设备中,写的方法是:先擦除对应扇区,擦除完成后,再写数据。函数erase_write分析如下: static int erase_write (struct mtd_info *mtd, unsigned long pos,int len, const char *buf) 函数mtdblock_readsect调用了函数do_cached_read,从flash设备中读数据到指定位置的buf中,如果数据在设备的缓存 中,就直接从缓存中拷贝到buf中,如果不在,就从flash中读出到buf中。函数do_cached_read说明如下: static int do_cached_read (struct mtdblk_dev *mtdblk, unsigned long pos, int len, char *buf) 其中参数mtdblk是指定的MTD块设备,pos是MTD设备中指定的位置,len是长度,buf是被写入的地址,调用成功时返回0,失败时返回错误码。函数从指定的MTD块设备中缓冲读到指定位置buf中。 MTD核心初始化MTD核心主要工作是进行电源管理及在/proc文件系统中输出MTD设备的信息。函数init_mtd初始化proc文件系统函数、注册电源管理函数、初始化mtd设备函数,清除模块函数做相反的一些清除工作。 函数init_mtd分析如下(在linux/drivers/mtd/mtd_core.c中):int __init init_mtd(void) { if ((proc_mtd = create_proc_entry( “mtd”, 0, 0 ))) proc_mtd->read_proc = mtd_read_proc; mtd_pm_dev = pm_register(PM_UNKNOWN_DEV, 0, mtd_pm_callback); return 0; } static void __exit cleanup_mtd(void) { if (mtd_pm_dev) { pm_unregister(mtd_pm_dev); mtd_pm_dev = NULL; } if (proc_mtd) remove_proc_entry( “mtd”, 0); } mtd_read_proc函数是proc系统调用到的最终读函数,它以字符形式读出结构struct mtd_info相关信息。 mtd_pm_callback函数通过各个设备的MTD设备结构mtd_info将电源管理请求传给具体的设备驱动程序。mtd_pm_callback函数列出如下: static int mtd_pm_callback(struct pm_dev *dev, pm_request_t rqst, void *data) { int ret = 0, i; if (down_trylock(&mtd_table_mutex)) return -EAGAIN; if (rqst == PM_SUSPEND) {//电源挂起状态 for (i = 0; ret == 0 && i < MAX_MTD_DEVICES; i++) { if (mtd_table[i] && mtd_table[i]->suspend) ret = mtd_table[i]->suspend(mtd_table[i]); } } else i = MAX_MTD_DEVICES-1; if (rqst == PM_RESUME || ret) {//电源恢复 for ( ; i >= 0; i--) { if (mtd_table[i] && mtd_table[i]->resume) mtd_table[i]->resume(mtd_table[i]); } } up(&mtd_table_mutex); return ret; }
MTD字符设备当系统打开flash设备上的文件,它建立好了文件的操作函数集实例,当对文件操作时,就调用了这个文件操作函数集实例中的函数。当flash设备当作字符设备时,这些操作函数通过MTD设备的操作函数把数据直接读入/写出flash设备。 函数init_mtdchar注册了一个字符设备,列出如下(在drivers/mtd/mtdchar.c中):static int __init init_mtdchar(void) { if (register_chrdev(MTD_CHAR_MAJOR, “mtd”, &mtd_fops)) { printk(KERN_NOTICE “Can’t allocate major number %d for Memory Technology Devices.\n”, MTD_CHAR_MAJOR); return -EAGAIN; } mtdchar_devfs_init(); return 0; } MTD字符设备的操作函数结构mtd_fops列出如下: static struct file_operations mtd_fops = { 这里只分析了mtd_write函数,函数mtd_write完成此函数是对MTD字符设备的写操作。其中参数file是系统给MTD字符设备驱动程序用 于传递参数的file结构,函数mtd_write通过file得到下层的MTD设备结构,参数buf是用户空间的指针,用于存放将要写入的数据,参数 count是被写数据的长度,参数ppos是数据被写入MTD设备中的位置。当调用成功时返回返回实际读取数据的长度,若失败时返回错误码。 函数mtd_write分析如下: static ssize_t mtd_write(struct file *file, const char __user *buf, size_t count,loff_t *ppos) { struct mtd_info *mtd = file->private_data; //得到MTD设备结构 char *kbuf; size_t retlen; size_t total_retlen=0; int ret=0; int len; DEBUG(MTD_DEBUG_LEVEL0,”MTD_write\n”); if (*ppos == mtd->size) return -ENOSPC; if (*ppos + count > mtd->size) count = mtd->size - *ppos; if (!count) return 0; while (count) { if (count > MAX_KMALLOC_SIZE) len = MAX_KMALLOC_SIZE; else len = count; kbuf=kmalloc(len,GFP_KERNEL);//分配buffer if (!kbuf) { printk(“kmalloc is null\n”); return -ENOMEM; } //从用户空间buf拷贝数据到内核空间kbuf if (copy_from_user(kbuf, buf, len)) { kfree(kbuf); return -EFAULT; } //调用设备的写函数 ret = (*(mtd->write))(mtd, *ppos, len, &retlen, kbuf); if (!ret) { *ppos += retlen; total_retlen += retlen; count -= retlen; buf += retlen; } else { kfree(kbuf); return ret; } kfree(kbuf); } return total_retlen; } /* mtd_write */
具体flash芯片的探测及映射(1)flash芯片映射信息结构 flash芯片映射信息结构map_info描述了每一排闪存的映射信息。如:每一排闪存的驱动程序、物理地址、读写操作函数和映射地址 等。如果设备需要它,系统就必须把它传递到芯片探测例程do_map_probe中。JEDEC和CFI接口的芯片都用这个探测函数。如果芯片被识别,就 会激活合适的芯片驱动程序并返回一个mtd_info结构。同时,系统使用这个驱动程序的模块地址填充mtd->module,并把它注册到MTD 核心代码中。或者如果有分区,就注册分区。map_info结构保存在mtd->priv域,芯片驱动程序需要的更多的信息通过链接 mtd->priv->fldrv_priv可得到。 flash芯片映射信息结构map_info列出如下(在include/linux/mtd/mtd.h中):struct map_info { char *name; unsigned long size; //flash大小 unsigned long phys; //起始物理地址 #define NO_XIP (-1UL) void __iomem *virt; //I/O映射的虚拟地址 void *cached; //8位的字节,它不是实际总线的必要宽度。 //在再次与第一个芯片通信之前,它是字节上重复的间隔 int bankwidth; #ifdef CONFIG_MTD_COMPLEX_MAPPINGS map_word (*read)(struct map_info *, unsigned long); void (*copy_from)(struct map_info *, void *, unsigned long, ssize_t); void (*write)(struct map_info *, const map_word, unsigned long); void (*copy_to)(struct map_info *, unsigned long, const void *, ssize_t); /* We can perhaps put in ‘point’ and ‘unpoint’ methods, if we really want to enable XIP for non-linear mappings. Not yet though. */ #endif /*在映射驱动程序的copy_from应用中,映射驱动程序使用缓存是可能的。然而,当芯片驱动程序知道一些flash区域已改变内容时,系统在必要时将通过这个例程发信号给芯片驱动程序,让映射驱动程序使缓存无效。如果没有缓存时,把这个域设为NULL。*/ void (*inval_cache)(struct map_info *, unsigned long, ssize_t); /* set_vpp() must handle being reentered—enable, enable, disable must leave it enabled. */ void (*set_vpp)(struct map_info *, int); unsigned long map_priv_1; unsigned long map_priv_2; void *fldrv_priv; struct mtd_chip_driver *fldrv; //flash芯片驱动程序 }; 结构mtd_chip_driver是flash芯片驱动程序的描述,列出如下: struct mtd_chip_driver {struct mtd_info *(*probe)(struct map_info *map);//探测函数 void (*destroy)(struct mtd_info *); struct module *module; //驱动程序的模块结构 char *name; //驱动程序名 struct list_head list;}; (2)flash芯片探测方法及接口标准 每种flash控制芯片可控制多种闪存,这个控制芯片的驱动程序有自己的读写和探测操作函数或者使用通用的操作函数,它注册MTD驱动程序结构 mtd_chip_driver到一个全局链表chip_drvs_list中。当用户使用一种flash闪存时,用户在称为"映射驱动程序"的文件中分 配好地址、进行闪存空间分区后,使用探测程序查找相应的控制芯片驱动程序。映射驱动程序用来填充一些闪存空间分配的一些信息,代码放在 drivers/mtd/map目录下。 在/drivers/mtd/chips目录下有各种flash控制芯片的驱动程序及芯片探测程序,这些文件有chipreg.c、 gen_probe.c、cfi_probe.c、jedec_probe.c、cfi_cmdset_0001.c、 cfi_cmdset_0002.c、map_rom.c、map_ram.c、map_absent.c、amd_flash.c、jedec.c和 sharp.c。CFI设备和JEDEC设备都要用到gen_probe.c文件。 确定flash闪存芯片是否支持CFI接口的方法是:向flash闪存的地址0x55H写入数据0x98H,再从flash闪存的地址 0x10H处开始,读取3个存储单元,如果字符分别为’Q’,’R’和’Y’,那么flash闪存芯片是支持CFI接口的。这个方法在文件 cfi_probe.c函数qry_present中实现。支持CFI接口flash闪存芯片的类型名称为 "cfi_probe"。 也可以用JEDEC(电子电器设备联合会)标准设备模仿CFI接口,探测JEDEC设备的程序在jedec_probe.c中,JEDEC设备的类型为"jedec_probe"。 对于flash芯片,不同的制造商使用不同的命令集,目前Linux的MTD实现的命令集有AMD/Fujitsu的标准命令集和 Intel/Sharp的扩展命令集(兼容Intel/Sharp标准命令集)两个,这两个命令集分别在cfi_cmdset_0002.c和 cfi_cmdset_0001.c中实现。 此外还有一些非CFI标准的Flash,其中"jedec"类型的Flash的探测程序在jedec.c中,"sharp"类型的Flash的探测程序在sharp.c中,"amd_flash"类型的Flash的探测程序在amd_flash.c中。 最后,还有一些非Flash的MTD,比如ROM或absent(无)设备。这些设备的探测程序在map_rom.c、map_ram.c和map_absent.c中。 chip_drvs_list是所有芯片类型的驱动器链表,flash控制芯片的驱动程序通过调用register_mtd_chip_driver() 和unregister_mtd_chip_driver()向此链表中添加或去除MTD芯片驱动结构。这两个函数列出如下(在drivers/mtd /chips/chipreg.c中):void register_mtd_chip_driver(struct mtd_chip_driver *drv) { spin_lock(&chip_drvs_lock); list_add(&drv->list, &chip_drvs_list); spin_unlock(&chip_drvs_lock); } void unregister_mtd_chip_driver(struct mtd_chip_driver *drv) { spin_lock(&chip_drvs_lock); list_del(&drv->list); spin_unlock(&chip_drvs_lock); } 映射驱动程序调用函数do_map_probe来查找对应的控制芯片驱动程序。函数中参数name是控制芯片类型名称,参数是映射驱动程序中设置的flash闪存空间信息。若调用成功时返回MTD设备的结构mtd_info,失败时返回NULL。 函数do_map_probe分析如下(在drivers/mtd/chips/chipreg.c中): struct mtd_info *do_map_probe(const char *name, struct map_info *map) { struct mtd_chip_driver *drv; struct mtd_info *ret; //查找得到name类型的控制芯片驱动程序结构 drv = get_mtd_chip_driver(name); if (!drv && !request_module(“%s”, name)) drv = get_mtd_chip_driver(name); if (!drv) return NULL; ret = drv->probe(map); //具体控制芯片驱动程序的探测函数 //使用计数减1,它可能已是一个探测过的模块,在这不需要再探测, //而在实际的驱动程序中已做处理。 module_put(drv->module); if (ret) return ret; return NULL; }
驱动程序实例分析(1)CFI控制芯片驱动程序 CFI控制芯片驱动程序cfi_probe在drivers/mtd/chip/cfi_probe.c中,这里只做了简单的说明。static struct mtd_chip_driver cfi_chipdrv = { .probe = cfi_probe, .name = “cfi_probe”, .module = THIS_MODULE }; 函数cfi_probe_init注册驱动程序cfi_chipdrv到全局链表中,函数列出如下: int __init cfi_probe_init(void) 函数cfi_probe调用mtd_do_chip_probe函数来完成了探测操作,在函数cfi_chip_probe中,它调用 qry_present来查询是否是CFI接口,调用函数cfi_chip_setup)初始化cfi_private结构,调用函数 cfi_chip_setup则读出CFI查询结构中的数据。然后,函数mtd_do_chip_probe调用函数check_cmd_set根据 map_info中的信息来设备不同的命令集:cfi_cmdset_0001()或cfi_cmdset_0002(),如果符合的类型没有则调用 cfi_cmdset_unkown。 函数cfi_probe列出如下: struct mtd_info *cfi_probe(struct map_info *map) { return mtd_do_chip_probe(map, &cfi_chip_probe); } static struct chip_probe cfi_chip_probe = { .name = “CFI”, .probe_chip = cfi_probe_chip }; (2)映射驱动程序 用户可设置flash空间映射信息填充在映射驱动程序中,包括该MTD原始设备的起始物理地址、大小、分区情况等。映射驱动程序都在drivers/mtd/maps子目录下。这里简单说明cfi_flagadm映射驱动程序(在cfi_flagadm.c中)。 flagadm_map是映射信息结构,它含有flash存储空间的配置信息,列出如下:struct map_info flagadm_map = { .name = “FlagaDM flash device”, .size = FLASH_SIZE, .bankwidth = 2, }; flagadm_parts是flash存储空间的分区,列出如下: struct mtd_partition flagadm_parts[] = {{ .name = “Bootloader”, .offset = FLASH_PARTITION0_ADDR, .size = FLASH_PARTITION0_SIZE }, { .name = “Kernel image”, .offset = FLASH_PARTITION1_ADDR, .size = FLASH_PARTITION1_SIZE }, { .name = “Initial ramdisk image”, .offset = FLASH_PARTITION2_ADDR, .size = FLASH_PARTITION2_SIZE }, { .name = “Persistant storage”, .offset = FLASH_PARTITION3_ADDR, .size = FLASH_PARTITION3_SIZE } 函数init_flagadm是映射驱动程序的初始化,它得到了端口映射地址,初始化了操作函数,通过探测函数得到MTD设备结构。函数init_flagadm说明如下: int __init init_flagadm(void) { printk(KERN_NOTICE “FlagaDM flash device: %x at %x\n”, FLASH_SIZE, FLASH_PHYS_ADDR); flagadm_map.phys = FLASH_PHYS_ADDR; //端口映射 flagadm_map.virt = ioremap(FLASH_PHYS_ADDR,FLASH_SIZE); if (!flagadm_map.virt) { printk(“Failed to ioremap\n”); return -EIO; } //赋上通用的读写操作函数,如:__raw_writeb等 simple_map_init(&flagadm_map); //探测CFI类型接口得到MTD设备结构 mymtd = do_map_probe(“cfi_probe”, &flagadm_map); if (mymtd) { mymtd->owner = THIS_MODULE; //将分区信息加到MTD设备结构实例mymtd中 add_mtd_partitions(mymtd, flagadm_parts, PARTITION_COUNT); printk(KERN_NOTICE “FlagaDM flash device initialized\n”); return 0; } iounmap((void *)flagadm_map.virt);//取消端口映射 return -ENXIO; } static void __exit cleanup_flagadm(void) { if (mymtd) { del_mtd_partitions(mymtd); map_destroy(mymtd); } if (flagadm_map.virt) { iounmap((void *)flagadm_map.virt); flagadm_map.virt = 0; } }
SD/MMC卡块设备驱动程序SD/MMC卡组成的存储系统是许多嵌入设备的主要存储设备,相当于PC机的硬盘,在嵌入设备上的SD/MMC卡控制器通过MMC协议来解析命令控 制SD/MMC卡的操作。SD/MMC卡上有一些寄存器来控制卡的状态及读写操作。MMC协议规定的寄存器有:CID寄存器,128位,是卡的鉴别寄存 器,存有卡的鉴别信息;RCA寄存器是16位,存有卡的本地系统的相对地址,在初始化时由控制器动态指定。DSR寄存器是16位,是配置卡的驱动程序的寄 存器,是可选的。CSD寄存器是卡特定数据信息描述寄存器,是可选的。OCR寄存器是操作控制寄存器。MMC卡的系统定义及相关协议请查询《MMC卡系统 定义3.1版本》。 MMC驱动程序以分通用设备层、MMC抽象设备层、MMC协议层和具体设备层四层来构建,上一层抽象出下一层的共有特性,每一层以相应的结 构来描述。通用设备层对于块设备来说,主要负责设备内核对象在sysfs文件系统中的管理、请求队列管理、及与文件系统的接口,MMC抽象设备层抽出 MMC卡的共有特性,如: MMC卡的请求管理、电源管理等。MMC协议层将MMC操作分解成标准的MMC协议,具体设备层则负责具体物理设备的寄存器控制等。这种分层结构层次分 明,管理有效。MMC驱动程序的层次结构如下图。 MMC驱动程序主要处理两部分的内容,一是创建通用硬盘结构向系统注册,以便系统对MMC设备的管理。另一方面,要完成系统分发过来的读写请求的处理。
MMC抽象设备层相关结构(1)设备描述结构MMC设备由控制器及插卡组成,对应的设备结构为mmc_host结构和mmc_card结构。MMC卡设备相关结构关系图如上图。下面分别说明设备相关结构: 每个卡的插槽对应一个块的数据结构mmc_blk_data,结构列出如下(在drivers/mmc/mmc_block.c中): struct mmc_blk_data { spinlock_t lock; struct gendisk *disk; //通用硬盘结构 struct mmc_queue queue; //MMC请求队列结构 unsigned int usage; unsigned int block_bits; //卡每一块大小所占的bit位 };
struct mmc_card { struct list_head node; //在主设备链表中的节点 struct mmc_host *host; // 卡所属的控制器 struct device dev; //通用设备结构 unsigned int rca; //设备的相对本地系统的地址 unsigned int state; //卡的状态 #define MMC_STATE_PRESENT (1<<0) //卡出现在sysfs文件系统中 #define MMC_STATE_DEAD (1<<1) //卡不在工作状态 #define MMC_STATE_BAD (1<<2) //不认识的设备 u32 raw_cid[4]; /* raw card CID */ u32 raw_csd[4]; /* raw card CSD */ struct mmc_cid cid; //卡的身份鉴别,值来自卡的CID寄存器 struct mmc_csd csd; //卡特定信息,值来自卡的CSD寄存器 };
struct mmc_host { struct device *dev; //通用设备结构 struct mmc_host_ops *ops; //控制器操作函数集结构 unsigned int f_min; unsigned int f_max; u32 ocr_avail; //卡可用的OCR寄存器值 char host_name[8]; //控制器名字 //主控制器中与块层请求队列相关数据 unsigned int max_seg_size; //最大片断的尺寸 unsigned short max_hw_segs; //最大硬件片断数 unsigned short max_phys_segs; //最大物理片断数 unsigned short max_sectors; //最大扇区数 unsigned short unused; //私有数据 struct mmc_ios ios; //当前i/o总线设置 u32 ocr; //当前的OCR设置 struct list_head cards; //接在这个主控制器上的设备 wait_queue_head_t wq; //等待队列 spinlock_t lock; //卡忙时的锁 struct mmc_card *card_busy; //正与主控制器通信的卡 struct mmc_card *card_selected; //选择的MMC卡 struct work_struct detect; //工作结构 };
struct mmc_host_ops { void (*request)(struct mmc_host *host, struct mmc_request *req); void (*set_ios)(struct mmc_host *host, struct mmc_ios *ios); }
struct mmc_ios { unsigned int clock; //时钟频率 unsigned short vdd; unsigned char bus_mode; //命令输出模式 unsigned char power_mode; //电源供应模式 };
struct mmc_driver { struct device_driver drv; int (*probe)(struct mmc_card *); void (*remove)(struct mmc_card *); int (*suspend)(struct mmc_card *, u32); int (*resume)(struct mmc_card *); };
(2) 读写请求相关结构对于MMC卡的操作是通过MMC请求结构mmc_request的传递来完成的,来自系统块层的读写请求到达MMC设备抽象层时,用系统的读写请求 填充初始化MMC卡的读写请求,经MMC协议分解后,然后把请求发给设备,再调用具体设备的请求处理函数来完成请求的处理。MMC卡读写请求结构示意图中 上图。下面分析MMC卡读写请求相关结构: 结构mmc_request描述了读写MMC卡的请求,它包括命令、数据及请求完成后的回调函数。结构mmc_request列出如下(在include/linux/mmc/mmc.h中): struct mmc_request { struct mmc_command *cmd; struct mmc_data *data; struct mmc_command *stop; void *done_data; //回调函数的参数 void (*done)(struct mmc_request *);//请求完成的回调函数 };
struct mmc_queue { struct mmc_card *card; //MMC卡结构 struct completion thread_complete; //线程完成结构 wait_queue_head_t thread_wq; //等待队列 struct semaphore thread_sem; unsigned int flags; struct request *req; //通用请求结构 int (*prep_fn)(struct mmc_queue *, struct request *); //发出读写请求函数 int (*issue_fn)(struct mmc_queue *, struct request *); void *data; struct request_queue *queue; //块层通用请求队列 struct scatterlist *sg; //碎片链表 };
struct mmc_data { unsigned int timeout_ns; //数据超时( ns,最大80ms) unsigned int timeout_clks; //数据超时(以时钟计数) unsigned int blksz_bits; //数据块大小的bit位 unsigned int blocks; //块数 unsigned int error; //数据错误 unsigned int flags; //数据操作标识 #define MMC_DATA_WRITE (1 << 8) #define MMC_DATA_READ (1 << 9) #define MMC_DATA_STREAM (1 << 10) unsigned int bytes_xfered; struct mmc_command *stop; //停止命令 struct mmc_request *mrq; //相关的请求 unsigned int sg_len; //碎片链表的长度 struct scatterlist *sg; // I/O碎片链表指针 };
struct mmc_command { u32 opcode; u32 arg; u32 resp[4]; unsigned int flags; //期望的反应类型 #define MMC_RSP_NONE (0 << 0) #define MMC_RSP_SHORT (1 << 0) #define MMC_RSP_LONG (2 << 0) #define MMC_RSP_MASK (3 << 0) #define MMC_RSP_CRC (1 << 3) /* expect valid crc */ #define MMC_RSP_BUSY (1 << 4) /* card may send busy */ /* * These are the response types, and correspond to valid bit * patterns of the above flags. One additional valid pattern * is all zeros, which means we don't expect a response. */ #define MMC_RSP_R1 (MMC_RSP_SHORT|MMC_RSP_CRC) #define MMC_RSP_R1B (MMC_RSP_SHORT|MMC_RSP_CRC|MMC_RSP_BUSY) #define MMC_RSP_R2 (MMC_RSP_LONG|MMC_RSP_CRC) #define MMC_RSP_R3 (MMC_RSP_SHORT) unsigned int retries; /* max number of retries */ unsigned int error; /* command error */ #define MMC_ERR_NONE 0 #define MMC_ERR_TIMEOUT 1 #define MMC_ERR_BADCRC 2 #define MMC_ERR_FIFO 3 #define MMC_ERR_FAILED 4 #define MMC_ERR_INVALID 5 struct mmc_data *data; //与命令相关的数据片断 struct mmc_request *mrq; //与命令相关的请求 };
MMC抽象设备层MMC块设备驱动程序(1)MMC块设备驱动程序初始化函数mmc_blk_init注册一个MMC块设备驱动程序,它先将MMC块设备名注册到名称数组major_names中,然后,还把驱动程序注 册到sysfs文件系统中的总线和设备目录中。一方面,sysfs文件系统中可显示MMC块设备相关信息,另一方面,sysfs文件系统以树形结构管理着 MMC块设备驱动程序。 函数mmc_blk_init分析如下(在drivers/mmc/mmc_block.c中): static int __init mmc_blk_init(void) { int res = -ENOMEM; //将卡名字mmc和major注册到块设备的名称数组major_names中 res = register_blkdev(major, "mmc"); if (res < 0) { printk(KERN_WARNING "Unable to get major %d for MMC media: %d\n", major, res); goto out; } if (major == 0) major = res; //在devfs文件系统中创建mmc目录 devfs_mk_dir("mmc"); return mmc_register_driver(&mmc_driver); out: return res; }
static struct mmc_driver mmc_driver = { .drv = { .name = "mmcblk", }, .probe = mmc_blk_probe, // MMC块设备驱动程序探测函数 .remove = mmc_blk_remove, .suspend = mmc_blk_suspend, .resume = mmc_blk_resume, };
函数mmc_register_driver分析如下(在drivers/mmc/mmc_sysfs.c中): int mmc_register_driver(struct mmc_driver *drv) { drv->drv.bus = &mmc_bus_type; drv->drv.probe = mmc_drv_probe; drv->drv.remove = mmc_drv_remove; //把块设备注册到sysfs文件系统中对应的总线及设备目录下 return driver_register(&drv->drv); }
(2)MMC块设备驱动程序探测函数
函数mmc_blk_probe是MMC控制器探测函数,它探测MMC控制器是否存在,并初始化控制器的结构,同时,还探测MMC卡的状态并初始化。函数mmc_blk_probe调用层次图如上图。 函数mmc_blk_probe列出如下: static int mmc_blk_probe(struct mmc_card *card) { struct mmc_blk_data *md; //每个插槽一个结构mmc_blk_data int err; if (card->csd.cmdclass & ~0x1ff) return -ENODEV; if (card->csd.read_blkbits < 9) {//所读的块小于1扇区 printk(KERN_WARNING "%s: read blocksize too small (%u)\n", mmc_card_id(card), 1 << card->csd.read_blkbits); return -ENODEV; } //分配每个插槽的卡的块数据结构,初始化了通用硬盘及请求队列 md = mmc_blk_alloc(card); if (IS_ERR(md)) return PTR_ERR(md); //设置块大小,发命令设置卡为选中状态 err = mmc_blk_set_blksize(md, card); if (err) goto out; printk(KERN_INFO "%s: %s %s %dKiB\n", md->disk->disk_name, mmc_card_id(card), mmc_card_name(card), (card->csd.capacity << card->csd.read_blkbits) / 1024); mmc_set_drvdata(card, md);//即card ->driver_data = md add_disk(md->disk); //向系统注册通用硬盘结构,它包括每分区信息 return 0; out: mmc_blk_put(md); return err; }
函数*mmc_blk_alloc分析如下(在drivers/mmc/mmc_block.c中): //最大支持8个控制器,每个控制器可控制4个卡,每个卡最大8个分区。 #define MMC_SHIFT 3 //表示每个卡最大支持8个分区 #define MMC_NUM_MINORS (256 >> MMC_SHIFT) //为256/8=32 //即定义dev_use[32/(8*4)] = devuse[1],一个控制器用32位表示使用情况 static unsigned long dev_use[MMC_NUM_MINORS/(8*sizeof(unsigned long))]; static struct mmc_blk_data *mmc_blk_alloc(struct mmc_card *card) { struct mmc_blk_data *md; int devidx, ret; //查找dev_use中第一个bit为0的位序号(在MMC_NUM_MINORS位以内) //找到第个空闲的分区 devidx = find_first_zero_bit(dev_use, MMC_NUM_MINORS); if (devidx >= MMC_NUM_MINORS) return ERR_PTR(-ENOSPC); __set_bit(devidx, dev_use);//将分区对应的位设置为1,表示使用。 md = kmalloc(sizeof(struct mmc_blk_data), GFP_KERNEL);//分配对象空间 if (md) { memset(md, 0, sizeof(struct mmc_blk_data)); //分配gendisk结构及通用硬盘的分区hd_struct结构,并初始化内核对象 md->disk = alloc_disk(1 << MMC_SHIFT); if (md->disk == NULL) { kfree(md); md = ERR_PTR(-ENOMEM); goto out; } spin_lock_init(&md->lock); md->usage = 1; //初始化请求队列 ret = mmc_init_queue(&md->queue, card, &md->lock); if (ret) { put_disk(md->disk); kfree(md); md = ERR_PTR(ret); goto out; } //赋上各种请求队列处理函数 md->queue.prep_fn = mmc_blk_prep_rq;//准备请求 md->queue.issue_fn = mmc_blk_issue_rq;//发出请求让设备开始处理 md->queue.data = md; //初始化通用硬盘 md->disk->major = major; md->disk->first_minor = devidx << MMC_SHIFT; md->disk->fops = &mmc_bdops; //块设备操作函数集 md->disk->private_data = md; md->disk->queue = md->queue.queue; md->disk->driverfs_dev = &card->dev; /*带有永久的块设备可移去的介质应被设置GENHD_FL_REMOVABLE标识,对于永久的介质可移去的块设备不应设置GENHD_FL_REMOVABLE。MMC块设备属于永久介质可移去的块设备,不能设置GENHD_FL_REMOVABLE。用户空间应使用块设备创建/销毁热插拔消息来告诉何时卡存在。*/ sprintf(md->disk->disk_name, "mmcblk%d", devidx); sprintf(md->disk->devfs_name, "mmc/blk%d", devidx); md->block_bits = card->csd.read_blkbits; //为请求队列设置硬件扇区大小 blk_queue_hardsect_size(md->queue.queue, 1 << md->block_bits); set_capacity(md->disk, card->csd.capacity);//设置卡的容量 } out: return md; }
(3)MMC卡请求的处理
函数mmc_init_queue初始化一个MMC卡请求队列结构,其中参数mq是mmc请求队列,参数card是加在这个队列里的mmc卡,参数lock是队列锁。函数mmc_init_queue调用层次图如上图。 函数mmc_init_queue分析如下(在drivers/mmc/mmc_queue.c中): int mmc_init_queue(struct mmc_queue *mq, struct mmc_card *card, spinlock_t *lock) { struct mmc_host *host = card->host; u64 limit = BLK_BOUNCE_HIGH; int ret; if (host->dev->dma_mask && *host->dev->dma_mask) limit = *host->dev->dma_mask; mq->card = card; //初始化块层的请求队列,请求合并策略,赋上请求处理函数mmc_request。 mq->queue = blk_init_queue(mmc_request, lock); if (!mq->queue) return -ENOMEM; //初始化请求队列的扇区及片断限制 blk_queue_prep_rq(mq->queue, mmc_prep_request);//赋上准备请求函数 blk_queue_bounce_limit(mq->queue, limit); blk_queue_max_sectors(mq->queue, host->max_sectors); blk_queue_max_phys_segments(mq->queue, host->max_phys_segs); blk_queue_max_hw_segments(mq->queue, host->max_hw_segs); blk_queue_max_segment_size(mq->queue, host->max_seg_size); mq->queue->queuedata = mq; mq->req = NULL; mq->sg = kmalloc(sizeof(struct scatterlist) * host->max_phys_segs, GFP_KERNEL); if (!mq->sg) { ret = -ENOMEM; goto cleanup; } init_completion(&mq->thread_complete); init_waitqueue_head(&mq->thread_wq); init_MUTEX(&mq->thread_sem); //创建请求队列处理线程mmc_queue_thread ret = kernel_thread(mmc_queue_thread, mq, CLONE_KERNEL); if (ret >= 0) { wait_for_completion(&mq->thread_complete); init_completion(&mq->thread_complete); ret = 0; goto out; } cleanup: kfree(mq->sg); mq->sg = NULL; blk_cleanup_queue(mq->queue); out: return ret; }
static int mmc_prep_request(struct request_queue *q, struct request *req) { struct mmc_queue *mq = q->queuedata; int ret = BLKPREP_KILL; if (req->flags & REQ_SPECIAL) { //在req->special 中已建立命令块,表示请求已准备好 BUG_ON(!req->special); ret = BLKPREP_OK; } else if (req->flags & (REQ_CMD | REQ_BLOCK_PC)) { //块I/O请求需要按照协议进行翻译 ret = mq->prep_fn(mq, req); } else { //无效的请求 blk_dump_rq_flags(req, "MMC bad request"); } if (ret == BLKPREP_OK)//请求已准备好,不需再准备了 req->flags |= REQ_DONTPREP; return ret; }
static int mmc_blk_prep_rq(struct mmc_queue *mq, struct request *req) { struct mmc_blk_data *md = mq->data; int stat = BLKPREP_OK; //如果没有设备,没法完成初始化 if (!md || !mq->card) { printk(KERN_ERR "%s: killing request - no device/host\n", req->rq_disk->disk_name); stat = BLKPREP_KILL; } return stat; }
函数mmc_request分析如下(在driver/mmd/mmc_queue.c中): static void mmc_request(request_queue_t *q) { struct mmc_queue *mq = q->queuedata; if (!mq->req)//如果有请求,唤醒请求队列处理线程 wake_up(&mq->thread_wq); }
static int mmc_queue_thread(void *d) { struct mmc_queue *mq = d; struct request_queue *q = mq->queue; DECLARE_WAITQUEUE(wait, current); //声明一个当前进程的等待队列 //设置当前进程状态,来让线程自己来处理挂起 current->flags |= PF_MEMALLOC|PF_NOFREEZE; //让线程继承init进程,从而不会使用用户进程资源 daemonize("mmcqd"); complete(&mq->thread_complete); //设置线程完成时的回调函数 down(&mq->thread_sem); add_wait_queue(&mq->thread_wq, &wait); //加线程到等待队列 do { struct request *req = NULL; spin_lock_irq(q->queue_lock); set_current_state(TASK_INTERRUPTIBLE); if (!blk_queue_plugged(q)) //如果队列是非堵塞状态,得到下一个请求 mq->req = req = elv_next_request(q); spin_unlock_irq(q->queue_lock); if (!req) {//如果请求为空 if (mq->flags & MMC_QUEUE_EXIT) break; up(&mq->thread_sem); schedule(); down(&mq->thread_sem); continue; } set_current_state(TASK_RUNNING); //这里调用了mmc_blk_issue_rq开始处理请求 mq->issue_fn(mq, req); } while (1); remove_wait_queue(&mq->thread_wq, &wait); up(&mq->thread_sem); //调用请求处理完后的回调函数 complete_and_exit(&mq->thread_complete, 0); return 0; }
static int mmc_blk_issue_rq(struct mmc_queue *mq, struct request *req) { struct mmc_blk_data *md = mq->data; struct mmc_card *card = md->queue.card; int ret; //认领控制器,发命令到卡设置card为选中状态 if (mmc_card_claim_host(card)) goto cmd_err; do { struct mmc_blk_request brq; struct mmc_command cmd; //初始化MMC块请求结构 memset(&brq, 0, sizeof(struct mmc_blk_request)); brq.mrq.cmd = &brq.cmd; brq.mrq.data = &brq.data; brq.cmd.arg = req->sector << 9; brq.cmd.flags = MMC_RSP_R1; brq.data.timeout_ns = card->csd.tacc_ns * 10; brq.data.timeout_clks = card->csd.tacc_clks * 10; brq.data.blksz_bits = md->block_bits; brq.data.blocks = req->nr_sectors >> (md->block_bits - 9); brq.stop.opcode = MMC_STOP_TRANSMISSION; brq.stop.arg = 0; brq.stop.flags = MMC_RSP_R1B; if (rq_data_dir(req) == READ) {//读请求 brq.cmd.opcode = brq.data.blocks > 1 ? MMC_READ_MULTIPLE_BLOCK : MMC_READ_SINGLE_BLOCK; brq.data.flags |= MMC_DATA_READ; } else {//写 brq.cmd.opcode = MMC_WRITE_BLOCK; brq.cmd.flags = MMC_RSP_R1B; brq.data.flags |= MMC_DATA_WRITE; brq.data.blocks = 1; } brq.mrq.stop = brq.data.blocks > 1 ? &brq.stop : NULL; brq.data.sg = mq->sg; brq.data.sg_len = blk_rq_map_sg(req->q, req, brq.data.sg); //等待请求完成 mmc_wait_for_req(card->host, &brq.mrq); …… do { int err; cmd.opcode = MMC_SEND_STATUS; cmd.arg = card->rca << 16; cmd.flags = MMC_RSP_R1; err = mmc_wait_for_cmd(card->host, &cmd, 5); if (err) { printk(KERN_ERR "%s: error %d requesting status\n", req->rq_disk->disk_name, err); goto cmd_err; } } while (!(cmd.resp[0] & R1_READY_FOR_DATA)); //一个块被成功传输 spin_lock_irq(&md->lock); ret = end_that_request_chunk(req, 1, brq.data.bytes_xfered); if (!ret) { //整个请求完全成功完成 add_disk_randomness(req->rq_disk); blkdev_dequeue_request(req);//从队列中删除请求 end_that_request_last(req);//写一些更新信息 } spin_unlock_irq(&md->lock); } while (ret); mmc_card_release_host(card); return 1; cmd_err: mmc_card_release_host(card); spin_lock_irq(&md->lock); do { //结束请求req上的I/O,操作成功时返回0 ret = end_that_request_chunk(req, 0, req->current_nr_sectors << 9); } while (ret); add_disk_randomness(req->rq_disk); blkdev_dequeue_request(req); end_that_request_last(req); spin_unlock_irq(&md->lock); return 0; } 函数mmc_card_claim_host发出命令选择这个卡card,函数列出如下(在 include/linuc/mmc/card.h中): static inline int mmc_card_claim_host(struct mmc_card *card) { return __mmc_claim_host(card->host, card); } 函数__mmc_claim_host专有地认领一个控制器,参数host是认领的mmc控制器,参数card是去认领控制器的卡。函数 __mmc_claim_host为一套操作认领一个控制器,如果card是被传递的一个有效的卡,并且它不是上次被选择的卡,那么在函数返回之前发出命 令选择这个卡card。 函数__mmc_claim_host分析如下(在drivers/mmc/mmc.c中): int __mmc_claim_host(struct mmc_host *host, struct mmc_card *card) { DECLARE_WAITQUEUE(wait, current);//给当前进程声明一个等待队列 unsigned long flags; int err = 0; add_wait_queue(&host->wq, &wait);//加host->wq到等待队列中 spin_lock_irqsave(&host->lock, flags); while (1) { set_current_state(TASK_UNINTERRUPTIBLE);//设置当前进程不可中断状态 if (host->card_busy == NULL) //如果没有忙的卡,跳出循环 break; spin_unlock_irqrestore(&host->lock, flags); schedule(); //如果有忙的卡,去调度执行 spin_lock_irqsave(&host->lock, flags); } set_current_state(TASK_RUNNING);//设置当前进程为运行状态 host->card_busy = card; //指定当前忙的卡 spin_unlock_irqrestore(&host->lock, flags); remove_wait_queue(&host->wq, &wait); //从等待队列中移去host->wq //如果卡不是选择状态,发出命令到卡设置为选择状态 if (card != (void *)-1 && host->card_selected != card) { struct mmc_command cmd; host->card_selected = card; cmd.opcode = MMC_SELECT_CARD; cmd.arg = card->rca << 16; cmd.flags = MMC_RSP_R1; //等待命令完成 err = mmc_wait_for_cmd(host, &cmd, CMD_RETRIES); } return err; } 函数mmc_wait_for_req开始执行一个请求并等待请求完成,函数分析如下(在drivers/mmc/mmc.c中): int mmc_wait_for_req(struct mmc_host *host, struct mmc_request *mrq) { DECLARE_COMPLETION(complete); mrq->done_data = &complete; mrq->done = mmc_wait_done; mmc_start_request(host, mrq); wait_for_completion(&complete); return 0; } 函数mmc_start_request开始排队执行一个在控制器上的命令,参数host是执行命令的控制器,参数mrq是将要开始执行的请求。调用者应持有锁并且关中断。 函数mmc_start_request分析如下(在drivers/mmc/mmc.c中): void mmc_start_request(struct mmc_host *host, struct mmc_request *mrq) { DBG("MMC: starting cmd %02x arg %08x flags %08x\n", mrq->cmd->opcode, mrq->cmd->arg, mrq->cmd->flags); WARN_ON(host->card_busy == NULL); mrq->cmd->error = 0; mrq->cmd->mrq = mrq; if (mrq->data) { mrq->cmd->data = mrq->data; mrq->data->error = 0; mrq->data->mrq = mrq; if (mrq->stop) { mrq->data->stop = mrq->stop; mrq->stop->error = 0; mrq->stop->mrq = mrq; } } //调用请求处理函数,对于amba主控制器来说就是mmci_request函数 host->ops->request(host, mrq); }
具体MMC控制器驱动程序示例下面以amba控制器为例分析MMC卡驱动程序。amba控制器是集成在ARM处理器中的MMC卡控制器。 (1)amba控制器驱动程序相关结构amba控制器驱动程序相关结构在include/asm-arm/hardware/amba.h中,分别说明如下: 结构amba_device 是amba控制器设备结构,它在通用设备结构的基础上封装了amba控制器选定的信息数据,列出如下: struct amba_device { struct device dev; //通用设备结构 struct resource res; //设备资源结构 u64 dma_mask; unsigned int periphid; unsigned int irq[AMBA_NR_IRQS]; }; struct amba_id { unsigned int id; unsigned int mask; void *data; }; 结构amba_driver是amba控制器驱动程序描述结构,列出如下: struct amba_driver { struct device_driver drv; //通用驱动程序结构 int (*probe)(struct amba_device *, void *); int (*remove)(struct amba_device *); void (*shutdown)(struct amba_device *); int (*suspend)(struct amba_device *, u32); int (*resume)(struct amba_device *); struct amba_id *id_table; }; J
struct mmci_host { //下面mmc_*结构是MMC设备抽象层的各种设备结构 void __iomem *base; struct mmc_request *mrq; //MMC读写请求 struct mmc_command *cmd; struct mmc_data *data; struct mmc_host *mmc; struct clk *clk; unsigned int data_xfered; spinlock_t lock; unsigned int mclk; unsigned int cclk; u32 pwr; struct mmc_platform_data *plat; //平台中与MMC相关的数据 struct timer_list timer; //定时器 unsigned int oldstat; unsigned int sg_len; /* pio stuff */ struct scatterlist *sg_ptr; //碎片链表指针 unsigned int sg_off; unsigned int size; } (2)amba控制器的初始化函数mmci_init 是amba控制器的初始化,它注册了amba控制器驱动程序结构mmci_driver。 amba控制器驱动程序的初始化函数和模块清除函数分别列出如下: static int __init mmci_init(void) { return amba_driver_register(&mmci_driver); } static void __exit mmci_exit(void) { amba_driver_unregister(&mmci_driver); } amba控制器驱动程序结构实例mmci_driver列出如下: #define DRIVER_NAME "mmci-pl18x" static struct amba_driver mmci_driver = { .drv = { .name = DRIVER_NAME, }, .probe = mmci_probe, //设备探测及初始化函数 .remove = mmci_remove, //移去设备处理函数 .suspend = mmci_suspend, //电源挂起函数 .resume = mmci_resume, //电源恢复函数 .id_table = mmci_ids, }; (3)设备探测函数mmci_probe函数mmci_probe探测设备并初始化设备,它的工作包括:申请设备I/O内存并进行I/O映射,初始化控制器结构,激活设备时钟,申请中断,检测MMC卡,设置设备定时状态检测函数等。 函数mmci_probe分析如下(在drivers/mmc/mmci.c中): static int mmci_probe(struct amba_device *dev, void *id) { struct mmc_platform_data *plat = dev->dev.platform_data; struct mmci_host *host; struct mmc_host *mmc; int ret; /* must have platform data */ if (!plat) { ret = -EINVAL; goto out; } //申请所有与设备相关的I/O内存区域。 ret = amba_request_regions(dev, DRIVER_NAME); if (ret) goto out; //分配并初始化主控制器结构mmc_host。 mmc = mmc_alloc_host(sizeof(struct mmci_host), &dev->dev); if (!mmc) { ret = -ENOMEM; goto rel_regions; } // 得到mmc对应有mmci结构,即host = ?void *) host = mmc_priv(mmc); //得到名为“MCLK”的时钟结构,它描述了一个硬件时钟的信息 host->clk = clk_get(&dev->dev, "MCLK"); if (IS_ERR(host->clk)) { ret = PTR_ERR(host->clk); host->clk = NULL; goto host_free; } //时钟是否使用 ret = clk_use(host->clk); if (ret) goto clk_free; //激活时钟 ret = clk_enable(host->clk); if (ret) goto clk_unuse; host->plat = plat; host->mclk = clk_get_rate(host->clk);//得到时钟频率 host->mmc = mmc; host->base = ioremap(dev->res.start, SZ_4K); //I/O映射的虚拟地址 if (!host->base) { ret = -ENOMEM; goto clk_disable; } //具体设备的控制器操作函数 mmc->ops = &mmci_ops; mmc->f_min = (host->mclk + 511) / 512; mmc->f_max = min(host->mclk, fmax); mmc->ocr_avail = plat->ocr_mask; /* * We can do SGIO */ mmc->max_hw_segs = 16; mmc->max_phys_segs = NR_SG;//定义为16 //因为仅有一个16位数据长度寄存器,我们必须保证一个请求中不能超过 -1。 //选择64(512字节)扇区作为限制。 mmc->max_sectors = 64; //设置最大片断尺寸,因为不做DMA,仅受限制于数据长度寄存器* mmc->max_seg_size = mmc->max_sectors << 9; spin_lock_init(&host->lock); //写寄存器 writel(0, host->base + MMCIMASK0); writel(0, host->base + MMCIMASK1); writel(0xfff, host->base + MMCICLEAR); //分配共享中断,中断函数是mmci_irq处理命令及传输数据传输完成时的中断处理函数,中断号是dev->irq[0]。 ret = request_irq(dev->irq[0], mmci_irq, SA_SHIRQ, DRIVER_NAME " (cmd)", host); if (ret) goto unmap; //中断mmci_pio_irq是PIO数据传输的中断处理函数 ret = request_irq(dev->irq[1], mmci_pio_irq, SA_SHIRQ, DRIVER_NAME " (pio)", host); if (ret) goto irq0_free; //将中断使能写入寄存器 writel(MCI_IRQENABLE, host->base + MMCIMASK0); //设置dev->driver_data = mmc。 amba_set_drvdata(dev, mmc); //初始化主控制器硬件,关控制器电源,检测控制器插槽有否卡。 mmc_add_host(mmc); printk(KERN_INFO "%s: MMCI rev %x cfg %02x at 0x%08lx irq %d,%d\n", mmc->host_name, amba_rev(dev), amba_config(dev), dev->res.start, dev->irq[0], dev->irq[1]); //初始化定义器 init_timer(&host->timer); host->timer.data = (unsigned long)host; host->timer.function = mmci_check_status;//设置定时函数为检测状态函数 host->timer.expires = jiffies + HZ; add_timer(&host->timer); return 0; …… } 函数amba_request_regions申请所有与设备相关的I/O内存区域。其参数dev是设备结构amba_device,参数name若为NULL,表示是驱动程序名字。 函数amba_request_regions分析如下(在arch/arm/commom/amba.c中): int amba_request_regions(struct amba_device *dev, const char *name) { int ret = 0; if (!name)//如果为NULL,表示是设备驱动程序的名字。 name = dev->dev.driver->name; //填写资源结构,I/O空间大小为SZ_4K,并分析是否在 //全局资源结构iomem_resource所控制的地址范围内,将资源加到资源树中。 if (!request_mem_region(dev->res.start, SZ_4K, name)) ret = -EBUSY; return ret; } 函数mmc_alloc_host 分配并初始化主控制器结构mmc_host。其参数extra是私有数据结构的大小,参数dev是主控制器设备模型结构的指针。 struct mmc_host *mmc_alloc_host(int extra, struct device *dev) { struct mmc_host *host; //分配结构对象空间 host = kmalloc(sizeof(struct mmc_host) + extra, GFP_KERNEL); if (host) { memset(host, 0, sizeof(struct mmc_host) + extra);//清0 spin_lock_init(&host->lock); init_waitqueue_head(&host->wq);//初始化等待队列 INIT_LIST_HEAD(&host->cards); //初始化链表 //设置工作的函数及定时器,函数是(&host->detect)-> mmc_rescan(host) INIT_WORK(&host->detect, mmc_rescan, host); host->dev = dev; //缺省时不支持SGIO(多个片断)或大请求, //如需支持必须按控制器的能力设备下面的参数。 host->max_hw_segs = 1; host->max_phys_segs = 1; //计数每页的扇区数=页大小/512 host->max_sectors = 1 << (PAGE_CACHE_SHIFT - 9); host->max_seg_size = PAGE_CACHE_SIZE; } return host; } (4)amba控制器操作函数amba控制器操作函数集实例列出如下: static struct mmc_host_ops mmci_ops = { .request = mmci_request, //amba控制器请求处理函数 .set_ios = mmci_set_ios, //控制设备状态,将控制值写入设备寄存器。 }; 函数mmci_request把在MMC抽象设备层封装好的MMC协议命令写入具体的amba控制器完成MMC卡的读写操作。 函数mmci_request列出如下: static void mmci_request(struct mmc_host *mmc, struct mmc_request *mrq) { struct mmci_host *host = mmc_priv(mmc); WARN_ON(host->mrq != NULL); spin_lock_irq(&host->lock); host->mrq = mrq; if (mrq->data && mrq->data->flags & MMC_DATA_READ) mmci_start_data(host, mrq->data); //开始执行命令,即向寄存器写入操作指令来执行读写操作。 mmci_start_command(host, mrq->cmd, 0); spin_unlock_irq(&host->lock); } |
|
来自: waston > 《fs_storage》