Linux下,I/O处理的层次可分为4层:
- 系统调用层,应用程序使用系统调用指定读写哪个文件,文件偏移是多少
- 文件系统层,写文件时将用户态中的buffer拷贝到内核态下,并由cache缓存该部分数据
- 块层,管理块设备I/O队列,对I/O请求进行合并、排序
- 设备层,通过DMA与内存直接交互,将数据写到磁盘
下图清晰地说明了Linux I/O层次结构:
写文件过程
写文件的过程包含了读的过程,文件先从磁盘载入内存,存到cache中,磁盘内容与物理内存页间建立起映射关系。用于写文件的write函数的声明如下:
- ssize_t write(int fd, const void *buf, size_t count);
其中fd对应进程的file结构, buf指向写入的数据。内核从cache中找出与被写文件相应的物理页,write决定写内存的第几个页面,例如"echo 1 > a.out"(底层调用write)写入的是a.out文件的第0个位置,write将写相应内存的第一页。
write函数修改内存内容之后,相应的内存页、inode被标记为dirty,此时write函数返回。注意至此尚未往磁盘写数据,只是cache中的内容被修改。
那什么时候内存中的内容会刷到磁盘中呢?
把脏数据刷到磁盘的工作由内核线程flush完成,flush搜寻内存中的脏数据,按设定将脏数据写到磁盘,我们可以通过sysctl命令查看、设定flush刷脏数据的策略:
- linux # sysctl -a | grep centi
- vm.dirty_writeback_centisecs = 500
- vm.dirty_expire_centisecs = 3000
- linux # sysctl -a | grep background_ratio
- vm.dirty_background_ratio = 10
以上数值单位为1/100秒,“dirty_writeback_centisecs = 500”指示flush每隔5秒执行一次,“dirty_expire_centisecs = 3000” 指示内存中驻留30秒以上的脏数据将由flush在下一次执行时写入磁盘,“dirty_background_ratio = 10”指示若脏页占总物理内存10%以上,则触发flush把脏数据写回磁盘。
flush找出了需要写回磁盘的脏数据,那存储脏数据的物理页又与磁盘的哪些扇区对应呢?
物理页与扇区的对应关系由文件系统定义,文件系统定义了一个内存页(4KB)与多少个块对应,对应关系在格式化磁盘时设定,运行时由buffer_head保存对应关系:
- linux # cat /proc/slabinfo | grep buffer_head
- buffer_head 12253 12284 104 37 1 : tunables 120 60 8 : slabdata 332 332 0
文件系统层告知块I/O层写哪个设备,具体哪个块,执行以下命令后,我们可以在/var/log/messages中看到文件系统层下发到块层的读写请求:
- linux # echo 1 > /proc/sys/vm/block_dump
- linux # tail -n 3 /var/log/messages
- Aug 7 00:50:31 linux-q62c kernel: [ 7523.602144] bash(5466): READ block 1095792 on sda1
- Aug 7 00:50:31 linux-q62c kernel: [ 7523.622857] bash(5466): dirtied inode 27874 (tail) on sda1
- Aug 7 00:50:31 linux-q62c kernel: [ 7523.623213] tail(5466): READ block 1095824 on sda1
块I/O层使用struct bio记录文件系统层下发的I/O请求,bio中主要保存了需要往磁盘刷数据的物理页信息,以及对应磁盘上的扇区信息。
块I/O层为每一个磁盘设备维护了一条I/O请求队列,请求队列在内核中由struct request_queue表示。每一个读或写请求都需经过submit_bio函数处理,submit_bio将读写请求放入相应I/O请求队列中。该层起到最主要的作用就是对I/O请求进行合并和排序,这样减少了实际的磁盘读写次数和寻道时间,达到优化磁盘读写性能的目的。
使用crash解析vmcore文件,执行"dev -d"命令,可以看到块设备请求队列的相关信息:
- crash > dev -d
- MAJOR GENDISK NAME REQUEST QUEUE TOTAL ASYNC SYNC DRV
- 8 0xffff880119e85800 sda 0xffff88011a6a6948 10 0 0 10
- 8 0xffff880119474800 sdb 0xffff8801195632d0 0 0 0 0
执行"struct request_queue 0xffff88011a6a6948",可对以上sda设备相应的request_queue请求队列结构进行解析。
执行以下命令,可以查看sda设备的请求队列大小:
- linux # cat /sys/block/sda/queue/nr_requests
- 128
如何对I/O请求进行合并、排序,那就是I/O调度算法完成的工作,Linux支持多种I/O调度算法,通过以下命令可以查看:
- linux # cat /sys/block/sda/queue/scheduler
- noop anticipatory deadline [cfq]
块I/O层的另一个作用就是对I/O读写情况进行统计,执行iostat命令,看到的就是该层提供的统计信息:
- linux # iostat -x -k -d 1
- Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util
- sda 0.00 9915.00 1.00 90.00 4.00 34360.00 755.25 11.79 120.57 6.33 57.60
其中rrqm/s、wrqm/s分别指示了每秒写请求、读请求的合并次数。
task_io_account_read函数用于统计各个进程发起的读请求量, 由该函数得到的是进程读请求量的准确值。而对于写请求,由于数据写入cache后write调用就返回,因而在内核的层面无法统计到一个进程发起的准确写请求量,读时进程会等buff可用,而写则写入cache后返回,读是同步的,写却不一定同步,这是读写实现上的最大区别。
再往下就是设备层,设备从队列中取出I/O请求,scsi的scsi_request_fn函数就是完成取请求并处理的任务。scsi层最终将处理请求转化为指令,指令下发后进行DMA(direct memory access)映射,将内存的部分cache映射到DMA,这样设备绕过cpu直接操作主存。
设备层完成内存数据到磁盘拷贝后,该消息将一层层上报,最后内核去除原脏页的dirty位标志。
以上为写磁盘的大致实现过程,对于读磁盘,内核首先在缓存中查找对应内容,若命中则不会进行磁盘操作。若进程读取一个字节的数据,内核不会仅仅返回一个字节,其以页面为单位(4KB),最少返回一个页面的数据。另外,内核会预读磁盘数据,执行以下命令可以看到能够预读的最大数据量(以KB为单位):
- linux # cat /sys/block/sda/queue/read_ahead_kb
- 512
下面我们通过一段systemtap代码,了解内核的预读机制:
- //test.stp
- probe kernel.function("submit_bio") {
- if(execname() == "dd" && __bio_ino($bio) == 5234)
- {
- printf("inode %d %s on %s %d bytes start %d\n",
- __bio_ino($bio),
- bio_rw_str($bio),
- __bio_devname($bio),
- $bio->bi_size,
- $bio->bi_sector)
- }
- }
以上代码指示当dd命令读写inode号为5234的文件、经过内核函数submit_bio时,输出inode号、操作方式(读或写)、文件所在设备名、读写大小、扇区号信息。执行以下代码安装探测模块:
- stap test.stp &
之后我们使用dd命令读取inode号为5234的文件(可通过stat命令取得文件inode号):
- dd if=airport.txt of=/dev/null bs=1 count=10000000
以上命令故意将bs设为1,即每次读取一个字节,以此观察内核预读机制。执行该命令的过程中,我们在终端中可以看到以下输出:
- inode 5234 R on sda2 16384 bytes start 70474248
- inode 5234 R on sda2 32768 bytes start 70474280
- inode 5234 R on sda2 32768 bytes start 70474352
- inode 5234 R on sda2 131072 bytes start 70474416
- inode 5234 R on sda2 262144 bytes start 70474672
- inode 5234 R on sda2 524288 bytes start 70475184
由以上输出可知,预读从16384字节(16KB)逐渐增大,最后变为524288字节(512KB),可见内核会根据读的情况动态地调整预读的数据量。
由于读、写磁盘均要经过submit_bio函数处理,submit_bio之后读、写的底层实现大致相同。
直接I/O
当我们以O_DIRECT标志调用open函数打开文件时,后续针对该文件的read、write操作都将以直接I/O(direct I/O)的方式完成;对于裸设备,I/O方式也为直接I/O。
直接I/O跳过了文件系统这一层,但块层仍发挥作用,其将内存页与磁盘扇区对应上,这时不再是建立cache到DMA映射,而是进程的buffer映射到DMA。进行直接I/O时要求读写一个扇区(512bytes)的整数倍,否则对于非整数倍的部分,将以带cache的方式进行读写。
使用直接I/O,写磁盘少了用户态到内核态的拷贝过程,这提升了写磁盘的效率,也是直接I/O的作用所在。而对于读操作,第一次直接I/O将比带cache的方式快,但因带cache方式后续再读时将从cache中读,因而后续的读将比直接I/O快。有些数据库使用直接I/O,同时实现了自己的cache方式。
异步I/O
Linux下有两种异步I/O(asynchronous I/O)方式,一种是aio_read/aio_write库函数调用,其实现方式为纯用户态的实现,依靠多线程,主线程将I/O下发到专门处理I/O的线程,以此达到主线程异步的目的。
另一种是io_submit,该函数是内核提供的系统调用,使用io_submit也需要指定文件的打开方式为O_DIRECT,并且读写需按扇区对齐。
Reference: Chapter 14 - The Block I/O Layer, Linux kernel development.3rd.Edition