HACK #15 ramzswap
本节介绍将一部分内存作为交换设备使用的ramzswap。
ramzswap是将一部分内存空间作为交换设备使用的基于RAM的块设备。对要换出(swapout)的页面进行压缩后,不是写入磁盘,而是写入内存。可以使用的内存仅为完成压缩的部分。压缩处理使用的是LZO注1。
ramzswap是从Linux 2.6.33合并到Staging驱动程序的。Staging驱动程序是指尚未达到某种程度的质量的试验性驱动程序。
通过使用ramzswap,运转速度可以比换出到一般磁盘设备时更高。这是因为内存的I/O较快,且经过压缩后I/O变小。只有用于嵌入式系统的内存等的机器中,可以避免内存不足时由于内存回收处理导致性能极端下降,或抑制OOM Killer的运行。
ramzswap的项目在如下环境中,即使减去压缩/解压缩的CPU系统开销,也可以提高性能。
上网本或瘦客户机(thin client)这种配备了内存容量小但CPU性能较高的的PC。
在组装机器上,不想在外部闪存存储器(flash memory storage)中生成交换区时。
使用ramzswap时,可以使用已经整合到上游内核的,也可以从论坛中下载并使用。
整合到上游内核的ramzswap实际安装了论坛的部分成果。本节将针对上游内核和论坛版内核进行介绍。Linux内核以2.6.35为例,论坛数据包以版本0.6.2为例。操作系统使用Fedora 12。
使用论坛版ramzswap
使用论坛版的数据包时,首先需要下载数据包进行编译。由于要对内核模块进行编译,因此必须事先安装kernel-devel。
$ wget http://compcache.googlecode.com/files/compcache-0.6.2.tar.gz
$ tar zxvf compcache-0.6.2.tar.gz
$ cd compcache-0.6.2/
$ make
make命令结束后,将生成内核模块ramzswap.ko和ramzswap设备的控制工具—rzscontrol命令和rzscontrol命令的manual文件。
小贴士:ramswap版本0.6.2的运行已经在Linux 2.6.32中确认。使用RHEL6编译时,需要在ramzswap_drv.c的最前面加上#include 。
rzscontrol命令创建的路径为compcache-0.6.2/sub-projects/rzscontrol/rzscontrol,manual文件创建的路径为compcache-0.6.2/sub-projects/rzscontrol/man/rzscontrol.1。ramzswap版本0.6.2不会通过make命令自动安装。可以直接使用这些文件。
ramzswap的使用方法有两种。一种是在内存中创建虚拟交换区磁盘的ramzswap disk,另一种是在使用内存的同时使用交换文件或交换块设备的backing swap。一般系统与使用ramzswap disk、backing swap系统的内存和交换区的关系如图2-2所示。
图2-2 一般系统与使用ramzswap disk、backing swap的系统的内存和交换区的关系
首先介绍第一个ramzswap disk。
ramzswap disk的使用方法
使用ramzswap disk,首先需要将用来压缩/解压缩数据的LZO模块安装到内核中。
# modprobe lzo_compress
#modprobe lzo_decompress
注意事项:在部分发布版(Fedora14等)中,把lzo_decompress模块静态安装到内核中,有时会因为没有模块而导致modprobe失败。
# modprobe lzo_decompress
FATAL:Module lzo_decompress not found.
没有模块,也没有静态安装到内核时,对ramzswap.ko执行insmod命令,就会出现如下错误。
# insmod ramzswap.ko
insmod: error inserting 'ramzswap.ko': -1 Unknown symbol in module
自己构建内核时,请将CONFIG_LZO_DECOMPRESS设置为y或m。把像Fedora 14这样lzo_decompress静态安装到内核的情况下,ramzswap.ko的insmod会成功。
接下来安装ramzswap模块。这里将设置num_devices=4,以生成4个设备文件。
# insmod ./ramzswap.ko num_devices=4
# ls /dev/ramzswap*
/dev/ramzswap0 /dev/ramzswap1 /dev/ramzswap2 /dev/ramzswap3
# lsmod
Module Size Used by
ramzswap 21108 0
lzo_decompress 2768 1 ramzswap
lzo_compress 2480 1 ramzswap
......
将ramzswap模块安装到内核的同时,还可以设置各参数。下面是设置作为ramzswap disk使用的内存大小的例子。
insmod ramzswap.ko num_devices=4 disksize_kb=20480
只有/dev/ramzswap0的初始化(后面介绍--init选项)和disksize_kb参数设置是自动进行的。/dev/ramzswap1~3的初始化和disksize_kb参数需要另行设置。
后面也可以在rzscontol命令中设置相同参数。但是num_devices只能在安装模块时进行设置。表2-9所示为可设置的参数列表。其内容将在后面详细说明。
表2-9 ramzswap的模块参数与rzscontrol命令的选项
安装ramzswap模块后,为了作为交换区使用对ramzswap设备进行初始化,并启用交换功能。
# sub-projects/rzscontrol/rzscontrol /dev/ramzswap0 - -init
# swapon /dev/ramzswap0
这时也可以使用-p选项指定优先级,与已有的交换设备同时使用。这个值较大表示优先级较高,因此应当指定比一般的交换设备更大的值。
# swapon -p 100 /dev/ramzswap0
# swapon -s
Filename Type Size Used Priority
/dev/ramzswap0 partition 511992 0 100
/dev/sda2 partition 2047992 0 -1
这时,ramzswap设备的交换功能就已启用。使用一定数量的内存后,就会发生换出。
可以使用rzscontrol命令的--stats选项来确认ramzswap的统计信息和状态。
# sub-projects/rzscontrol/rzscontrol /dev/ramzswap --stats
表2-10为此时的输出结果和各项目的说明。
表2-10 执行ramzswap disk命令时rzscontrol --stats的输出结果
由于ramzswap不会立刻释放保留的内存,因此OrigDataSize和free命令的数值不一定一致。
rzscontrol命令也可以对各个ramzswap设备进行设置。使用--disksize_kb选项可以设置ramzswap设备的大小(单位为千字节)。执行下列命令就可以设置ramzswap设备的容量。
# sub-projects/rzscontrol/rzscontrol /dev/ramzswap0 --init --disksize_kb=10240
要将ramzswap设备排除在交换对象之外,可以使用swapoff命令。
# swapoff /dev/ramzswap0
要关闭ramzswap,需要在swapoff之后使用rzscontrol命令的--reset选项释放残留在ramzswap磁盘中的内存。最后将模块从内核中移除。
# sub-projects/rzscontrol/rzscontrol /dev/ramzswap0 --reset
# rmmod ramzswap
backing swap的使用方法
ramzswap还有另一种使用方法,就是将部分内存作为ramzswap disk使用,再将交换文件或交换块设备作为backing swap使用。
ramswap为内存和磁盘的两层。如果内存稍有不足,则仅使用内存的ramzswap disk进行处理,但如果缺少更多内存,则页面的内容存放到backing swap中。
下面介绍backing swap的使用方法。
首先与ramzswap disk同样进行设置。
# modprobe lzo_compress
# modprobe lzo_decompress
# insmod ./ramzswap.ko num_devices=4
然后使用rzscontrol命令指定backing swap。
# sub-projects/rzscontrol/rzscontrol /dev/ramzswap0 --init --backing_swap=/dev/sda2 --memlimit_kb=10240
使用--backing_swap选项指定交换文件或交换块设备。这里指定的是块设备/dev/sda2。--memlimit_kb选项指定的是作为ramzswap disk使用的内存大小。使用内存的方式基本与ramzswap disk相同。没有指定时设置为所有内存大小的15%。这里设置为10240KB。
最后启用已生成设备的交换功能。
# swapon /dev/ramzswap0
内存使用量一旦增加,首先压缩的页面会写入ramzswap disk的区域中。这时未压缩到50%以下的页面则写入backing swap中,而非ramzswap disk中。另外,超过--memlimit_kb选项指定的内存大小时也会写入backing swap中。
表2-11所示为执行rzscontrol --stats的结果。说明中仅记载与ramzswap disk的不同之处。
表2-11 执行ramzswap --stats的结果
使用上游内核的ramzswap
要使用安装在上游内核的ramzswap,需要首先启用内核config(CONFIG_RAMZSWAP=y),编译内核。使用make menuconfig命令启用下列项目。
Device Drivers
-> Staging drivers
-> Compressed in-memory swap device (ramzswap)
启动编译后的内核。
使用方法
使用方法与论坛版相同,但需要另外编译用于上游内核的rzscontrol命令。由于上游内核驱动程序内没有安装backing swap,因此必须修改rzscontrol命令的代码。
上游内核中还没有安装backing swap和memlimit,因此将这部分代码从这个补丁中删除。下面使用这个补丁来编译rzscontrol命令。
# wget http://compcache.googlecode.com/files/compcache-0.6.2.tar.gz
# tar zxvf compcache-0.6.2.tar.gz
# cd compcache-0.6.2/sub-projects/rzscontrol
# patch -p1 < ramzswap-for-2.6.35.patch
按照下列方式指定上游内核的include文件进行编译。
# gcc -g -Wall -D_GNU_SOURCE rzscontrol.c -o rzscontrol -I /linux-2.6.35/drivers/staging/ramzswap/ -I../include
使用方法与论坛版相同。
小结
本节介绍了ramzswap。是否能够通过压缩页面数据受益,是与内存数据的内容相关的。但是即使多少有一些压缩/解压缩的系统开销,也比内存耗尽好得多。这在没有交换区的无磁盘(diskless)组装机器中尤其有效。
参考文献
compcache Compressed Caching for Linux
http://code.google.com/p/compcache/
LZO1X Compressor from MiniLZO
http://www.oberhumer.com/opensource/lzo/
Compcache: in-memory compressed swapping
http://lwn.net/Articles/334649/
—Naohiro Ooiwa
HACK #16 OOM Killer的运行与结构
本节介绍OOM Killer的运行与结构。
Linux中的Out Of Memory(OOM) Killer功能作为确保内存的最终手段,可以在耗尽系统内存或交换区后,向进程发送信号,强制终止该进程。
这个功能即使在无法释放内存的情况下,也能够重复进行确保内存的处理过程,防止系统停滞。还可以找出过度消耗内存的进程。本节将介绍2.6内核的OOM Killer。
确认运行、日志
进行系统验证或负载试验时,有时会出现正在运行中的进程终止或者SSH连接突然断开、尝试重新登录也无法连接的情况。
这时需要查看日志。有时会输出如下内核信息。
Pid: 4629, comm: stress Not tainted 2.6.26 #3
Call Trace:
[<ffffffff80265a2c>] oom_kill_process+0x57/0x1dc
[<ffffffff80238855>] __capable+0x9/0x1c
[<ffffffff80265d39>] badness+0x16a/0x1a9
[<ffffffff80265f59>] out_of_memory+0x1e1/0x24b
[<ffffffff80268967>] __alloc_pages_internal+0x320/0x3c2
[<ffffffff802726cb>] handle_mm_fault+0x225/0x708
[<ffffffff8047514b>] do_page_fault+0x3b4/0x76f
[<ffffffff80473259>] error_exit+0x0/0x51
Node 0 DMA per-cpu:
CPU 0: hi: 0, btch: 1 usd: 0
CPU 1: hi: 0, btch: 1 usd: 0
...
Active:250206 inactive:251609 dirty:0 writeback:0 unstable:0
free:3397 slab:2889 mapped:1 pagetables:2544 bounce:0
Node 0 DMA free:8024kB min:20kB low:24kB high:28kB active:8kB inactive:180kB present:7448kB pa
ges_scanned:308 all_unreclaimable? yes
lowmem_reserve[]: 0 2003 2003 2003
...
Node 0 DMA: 6*4kB 4*8kB 2*16kB 2*32kB 5*64kB 1*128kB 3*256kB 1*512kB 2*1024kB 2*2048kB 0*4096k
B = 8024kB
Node 0 DMA32: 1*4kB 13*8kB 1*16kB 6*32kB 2*64kB 2*128kB 1*256kB 1*512kB 0*1024kB 0*2048kB 1*40
96kB = 5564kB
29 total pagecache pages
Swap cache: add 1630129, delete 1630129, find 2279/2761
Free swap = 0kB
Total swap = 2048248kB
Out of memory: kill process 2875 (sshd) score 94830592 or a child
Killed process 3082 (sshd)
最后出现了Out of memory(内存不足)。这就表示OOM Killer已经运行。无法重新连接的情况就是因为sshd被OOM Killer终止。如果不重新启动sshd就无法登录。
OOM Killer通过终止进程来确保空闲内存,接下来将介绍如何选定这个进程。
进程的选定方法
OOM Killer在内存耗尽时,会查看所有进程,并分别为每个进程计算分数。将信号发送给分数最高的进程。
计算分数的方法
在OOM Killer计算分数时要考虑很多方面。首先要针对每个进程确认下列1~9个事项再计算分数。
1.首先,计算分数时是以进程的虚拟内存大小为基准的。虚拟内存大小可以使用ps命令的VSZ或/proc//status的VmSize注2来确认。对于正在消耗虚拟内存的进程,其最初的得分较高。单位是将1KB作为1个得分。消耗1GB内存的进程,得分约为1 000 000。
2.如果进程正在执行swapoff系统调用,则得分设置为最大值(unsigned long的最大值)。这是因为禁用swap的行为与消除内存不足是相反的,会立刻将其作为OOM Killer的对象进程。
3.如果是母进程,则将所有子进程内存大小的一半作为分数。
- 根据进程的CPU使用时间和进程启动时间调整得分。这是因为在这里认为越是长时间运行或从事越多工作的进程越重要,需保持得分较低。
首先,用得分除以CPU使用时间(以10秒为单位)的平方根。如果CPU使用时间为90秒,由于以10秒为单位,因此就是用得分除以9的平方根“3”。另外,根据进程启动开始的时间也可以调整得分。用得分除以启动时间(以1000秒为单位)的平方根的平方根。如果是持续运行16 000秒的进程,则用得分除以16的平方根“4”的平方根“2”。越是长时间运行的进程就越重要。
小贴士:虽然源代码的备注中写有以10秒为单位、以1000秒为单位,但是实际上在位运算中是以8和1024为单位来计算。
5.对于通过nice命令等将优先级设置得较低的进程,要将得分翻倍。nice-n中设置为1~19的命令的得分翻倍。
6.特权进程普遍较为重要,因此将其得分设置为1/4。
7.通过capset(3)等设置了功能(capability)CAP_SYS_RAWIO注3的进程,其得分为1/4。将直接对硬件进行操作的进程判断为重要进程。
8.关于Cgroup,如果进程只允许与促使OOM Killer运行的进程所允许的内存节点完全不同的内存节点,则其得分为1/8。
9.最后通过proc文件系统oom_adj的值调整得分。
依据以上规则,为所有进程打分,向得分最高的进程发送信号SIGKILL(到Linux 2.6.10为止,在设置了功能CAP_SYS_RAWIO的情况下,发送SIGTERM,在没有设置的情况下,发送SIGKILL)。
各进程的得分可以使用/proc//oom_score来确认。
但是init(PID为1的)进程不能成为OOM Killer的对象。当成为对象的进程包含子进程时,先向其子进程发送信号。
向成为对象的进程发送信号后,对于引用系统的全线程,即使线程组(TGID)不同,如果存在与对象进程共享相同内存空间的进程,则也向这些进程发送信号。
关于OOM Killer的proc文件系统
下面开始介绍与OOM Killer相关的proc文件系统。
/proc//oom_adj
为/proc//oom_adj设置值就可以调整得分。调整值的范围为–16~15。正的值容易被OOM Killer选定。负值可能性较低。例如,当指定3时,得分就变为23倍;当指定–5时,得分就变为1/25。
“–17”是一个特殊的值。如果设置为–17,就会禁止OOM Killer发出的信号(从Linux 2.6.12开始支持设置–17)。
在OOM Killer运行的情况下,为了实现远程登录而想要将sshd排除在对象外时,可以执行下列命令。
# cat /proc/'cat /var/run/sshd.pid'/oom_score
15
# echo -17 > /proc/'cat /var/run/sshd.pid'/oom_adj
# tail /proc/'cat /var/run/sshd.pid'/oom_*
==> /proc/2278/oom_adj <==
-17
==> /proc/2278/oom_score <==
0 /*得分变成0*/
从Linux 2.6.18开始可以使用/proc//oom_adj。内容记载在Documentation /filesystems/proc.txt中。
/proc/sys/vm/panic_on_oom
将/proc/sys/vm/panic_on_oom设置为1时,在OOM Killer运行时可以不发送进程信号,而是使内核产生重大故障。
# echo 1 > /proc/sys/vm/panic_on_oom
/proc/sys/vm/oom_kill_allocating_task
从Linux 2.6.24开始proc文件系统就有oom_kill_allocating_task。如果对此设置除0以外的值,则促使OOM Killer运行的进程自身将接收信号。此处省略对所有进程的得分计算过程。
# echo 1 > /proc/sys/vm/oom_kill_allocating_task
这样就不需要参照所有进程,但是也不会考虑进程的优先级和root权限等,只发送信号。
/proc/sys/vm/oom_dump_tasks
从Linux 2.6.25开始,将oom_dump_tasks设置为除0以外的值时,在OOM Killer运行时的输出中会增加进程的列表信息。
下面为设置示例。
# echo 1 > /proc/sys/vm/oom_dump_tasks
列表信息显示如下,可以使用dmesg或syslog来确认。
[ pid ] uid tgid total_vm rss cpu oom_adj name
[ 1] 0 1 2580 1 0 0 init
[ 500] 0 500 3231 0 1 -17 udevd
[ 2736] 0 2736 1470 1 0 0 syslogd
[ 2741] 0 2741 944 0 0 0 klogd
[ 2765] 81 2765 5307 0 0 0 dbus-daemon
[ 2861] 0 2861 944 0 0 0 acpid
...
[ 3320] 0 3320 525842 241215 1 0 stress
/proc/<PID>/oom_score_adj
从Linux 2.6.36开始都安装了/proc//oom_score_adj,此后将替换为/proc/ /oom_adj。详细内容请参考Documentation/feature-removal-schedules.txt。即使当前是对/proc//oom_adj进行的设置,在内核内部进行变换后的值也是针对/proc//oom_score_adj设置的。
/proc//oom_score_adj可以设置–1000~1000之间的值。设置为–1000时,该进程就被排除在OOM Killer强制终止的对象外。
在内核2.6.36以后的版本中写入oom_adj,只会输出一次如下的信息。
# dmesg
.....
udevd (60): /proc/60/oom_adj is deprecated, please use /proc/60/oom_score_adj instead.
.....
RHEL5的特征
在RHEL5中运行OOM Killer时要比在上游内核中更加慎重。OOM Killer会计算调用的次数,仅在一定时间段内超出调用一定次数的情况下运行。
1.OOM Killer从上次调出到下一次调出之间超过5秒时,调用次数重新开始计算。这是为了避免仅因为产生突发性的内存负载就终止进程。
2.在计数变成0后的1秒以内调出时,不计入调用的次数。
3.OOM Killer的调用次数不足10次时,实际不会运行。OOM Killer调用10次时才开始认为内存不足。
4.最后OOM Killer运行不到5秒的话,OOM Killer不会再次运行。因此运行频率最高也有5秒一次。这是为了防止不必要地连续终止多个进程。也有等待接收到OOM Killer发出信号的进程终止(释放内存)的意思。
- OOM Killer一旦运行,调用的次数就重新回到0。
也就是说,只有在OOM Killer在5秒以内调出的状态连续出现10次以上时才会运行。
这些限制原本是到Linux 2.6.10为止都有的。因此在基于Linux 2.6.9的RHEL4中也需要实施这些限制。当前的上游内核中已经取消了这些限制。
RHEL4的运行
查看OOM Killer在RHEL4(Linux 2.6.9)中的运行情况。在下例中,是内存、交换区都为2GB的环境下,使用负载测试工具stress刻意消耗内存。
stress是给内存、CPU、磁盘I/O施加负载的工具。既可以为其中一项增加负载,也可以同时为这三项中的几项增加负载。stress在运行中如果接收到信号,就会输出信息并终止。
# wget -t0 -c http://weather.ou.edu/~apw/projects/stress/stress-1.0.0.tar.gz
# tar zxvf stress-1.0.0.tar.gz
# cd stress-1.0.0
# ./configure ; make ; make install
# stress --vm 2 --vm-bytes 2G --vm-keep /* 两个进程分别消耗2GB内存*/
stress: info: [17327] dispatching hogs: 0 cpu, 0 io, 2 vm, 0 hdd
stress: FAIL: [17327](416) <-- worker 17328 got signal 15 /* 接收SIGTERM信号*/
stress: WARN: [17327](418) now reaping child worker processes
stress: FAIL: [17327](452) failed run completed in 70s
此时的控制台画面显示如下。
oom-killer: gfp_mask=0xd0
Mem-info:
...
Swap cache: add 524452, delete 524200, find 60/102, race 0+0
Free swap: 0kB /* 交换区剩余为0 */
524224 pages of RAM /* 1页4KB,因此内存大小为2GB */
10227 reserved pages /* 在内核内部预约的内存 */
19212 pages shared
253 pages swap cached
Out of Memory: Killed process 17328 (stress). /* 根据信号终止的进程 */
在上游内核中无法禁用OOM Killer,而在RHEL4中则通过/proc/sys/vm/oom-kill可以禁用OOM Killer。
# echo 0 > /proc/sys/vm/oom-kill
或者
# /sbin/sysctl -w vm.oom-kill=0
禁用后OOM Killer就不会发送信号,但是会输出如上内存信息。
RHEL5的运行
在RHEL5(Linux 2.6.18)中对OOM Killer的运行进行确认的方法与RHEL4中相同。
# stress --vm 2 --vm-bytes 2G --vm-keep
stress: info: [11779] dispatching hogs: 0 cpu, 0 io, 2 vm, 0 hdd
stress: FAIL: [11779](416) <-- worker 11780 got signal 9 /* SIGKILL */
stress: WARN: [11779](418) now reaping child worker processes
stress: FAIL: [11779](452) failed run completed in 46s
此时的控制台画面如下所示。添加了运行OOM Killer时的回溯输出,便于调试。
Call Trace:
[<ffffffff800bf551>] out_of_memory+0x8e/0x321
[<ffffffff8000f08c>] __alloc_pages+0x22b/0x2b4
...
[<ffffffff800087fd>] __handle_mm_fault+0x208/0xe04
[<ffffffff80065a6a>] do_page_fault+0x4b8/0x81d
[<ffffffff800894ad>] default_wake_function+0x0/0xe
[<ffffffff80039dda>] tty_ldisc_deref+0x68/0x7b
[<ffffffff8005cde9>] error_exit+0x0/0x84
Mem-info:
...
Swap cache: add 512503, delete 512504, find 90/129, race 0+0
Free swap = 0kB
Total swap = 2048276kB
Free swap: 0kB
524224 pages of RAM
42102 reserved pages
78 pages shared
0 pages swap cached
Out of memory: Killed process 11780 (stress).
RHEL6的运行
RHEL6.0中OOM Killer计算得分的方式基本和RHEL5中没有不同。RHEL6系不会如“RHEL5的特征”中所述慎重地运行。其运行基本与上游内核相同。
小结
本节介绍了OOM Killer的结构和各种设置。当系统运行异常时确认syslog等,如果有OOM Killer的输出,就可以得知曾出现内存不足。
参考文献
stress
http://weather.ou.edu/~apw/projects/stress/
—Naohiro Ooiwa