linux CFS进程时间片调度策略

时间:2021-07-26 08:36:56
refer to 

http://blog.chinaunix.net/uid-27052262-id-3239260.html


Linux支持三种进程调度策略,分别是SCHED_FIFO  SCHED_RRSCHED_NORMALLinux支持两种类型的进程,实时进程和普通进程。实时进程可以采用SCHED_FIFO SCHED_RR调度策略;普通进程采用SCHED_NORMAL调度策略。

       本文主要讨论普通进程的调度算法,为了描述方便,后面章节中的“进程”指“普通进程”。

       Linux2.6.23内核到目前最新的Linux3.3.5内核的普通进程(采用调度策略SCHED_NORMAL)采用了绝对公平调度算法,CFS(completely fair schedule)CFSRSDL/SD中吸取了完全公平的思想,不再跟踪进程的睡眠时间,也不再区分交互式进程。它将所有的进程都统一对待,这就是公平的含义。CFS 调度中,进程数据结构中的动态优先级成员prio还继续有效,只是内核不再动态调整进程的动态优先级了。

       进程的优先级为100—139,对应的nice值为-20—19。和之前版本的优先级规定相同。Nice 和优先级对应关系如下linux CFS进程时间片调度策略

 

 

       如何实现公平调度的?内核给每个进程维护了一个虚拟运行时间vruntime,每个进程运行一段时间后,虚拟运行时间会增加,但是运行同样的实际时间每个进程增加的数值是不同的。比如nice值为0的进程运行了10ms,其虚拟运行时间增加了1vmsvms1虚拟毫秒,为了描述方便而定义);nice19的进程运行10ms,其虚拟运行时间增加了1000vms。进程在其生命周期中,其虚拟运行时间一直都是在增加的。内核把虚拟运行时间看做实际运行时间,为了公平起见要选择运行时间短的进程进行运行。所以内核在调度中总是选择虚拟运行时间小的进程。对内核来说,这样就很公平了,O(_)O

       同样运行10ms,如何确定一个进程该增加多少vms?增加的虚拟运行时间和进程的优先级nice数值有关,每个nice数值对应一个权重数值,见下图。linux CFS进程时间片调度策略

每个进程虚拟运行时间增加的时间量和 NICE_0_LOAD/nice_n_weight 成正比。其中NICE_0_LOAD 1024,即nice数值为0的权重,nice_n_weight即为nice数值为n的进程的权重,如nice-20(优先级最高的普通进程)的权重为88761。从这种算法也可以看出,优先级高的进程的虚拟运行时间增加的慢,其实际运行时间累计数值也就长。同样,这种算法能保证优先级低的进程也有运行机会,只是实际运行的时间比较短。

       内核要把所有running状态的进程放到一起,在需要调度时从中取出一个虚拟运行时间短的进程。因为发生调度的频率非常高,查找合适进程的算法就变的很重要了。在CFS调度中,内核采用了以进程虚拟运行时间为key值的红黑树数据结构挂接各个running的进程。有关红黑树请参考《linux内核之红黑树》。

       先要引入一个重要概念,调度实体(sched entiy):就是调度的对象。每个进程的task_struct包含了调度实体成员变量se。为何要引入调度实体,而不是直接使用进程的task_struct?是因为在CFS中支持CFS组调度,一个组中可能包含1个或多个进程。不能通过组中任何进程的task_struct来调度组,所以引入了调度实体的概念。为了统一起见,进程组和进程都使用调度实体保存调度相关的信息。后面会介绍CFS组调度。

       在多核系统中,每个CPU(此处指一个核心)对应一个全局变量per_cpu_runqueues,其数据结构为struct rq,该变量为调度的最顶层的数据结构。在该数据结构中包含了cfs,其数据结构为struct cfs_rqcfs 就是在该cpuCFS调度的*结构,或者说是CFS调度的入口点。其实rq中还包括了rt成员变量,rt是实时进程调度的*结构。

struct cfs_rq { 为了说明方便,只保留部分成员变量

       struct rb_root tasks_timeline;

       struct rb_node *rb_leftmost;

       struct sched_entity *curr, *next, *last, *skip;

}

其中成员变量tasks_timeline指向了红黑树的根,所有的进程都挂到这棵红黑树上(有些是间接挂接的)。如下图中的单个进程,进程数据结构task_struct中包含了成员变量se,即调度实体。调度实体se中包含了run_node节点,se通过该节点挂接到红黑树上。在选择需要调度的进程时,内核将搜索这个红黑树,找到虚拟运行时间小的进程,并把该进程从树上摘下。同时会把切换出(因运行时间长而被剥夺运行的进程插入红黑树)。由于红黑树的特性,其插入、摘除和超找的效率都很高,从而保证了CFS调度的效率。

因下图不清楚,直接把原始的word文档传上了:linux CFS进程时间片调度策略 linux内核之CFS调度和组调度.doc 

 

linux CFS进程时间片调度策略

CFS组调度

为何要引入CFS组调度呢?假设用户AB共用一台机器。我们可能希望AB能公平的分享CPU资源,但是如果用户A使用创建了8个进程、而用户B只创建1个进程,根据CFS调度是基于进程的(假设用户进程的优先级相同),A用户占用的CPU的时间将是B用户的8倍。
  如何保证AB用户公平分享CPU呢?组调度就能做到这一点。把属于用户AB的进程各分为一组,调度程序将先从两个组中选择一个组,再从选中的组中选择一个进程来执行。如果两个组被选中的机率相当,那么用户AB将各占有约50%CPU

 

相关数据结构 
  在linux内核中,使用task_group结构来管理组调度的组。所有存在的task_group组成一个树型结构。 
  一个task_group可以包含具有任意调度类别的进程(具体来说是实时进程和普通进程两种类别),task_group包含实时进程对应的调度实体和调度队列,以及普通进程对应的调度实体和调度队列。见下面的结构定义

struct task_group{    删除无关的成员变量

#ifdef CONFIG_FAIR_GROUP_SCHED

       struct sched_entity **se;  普通进程调度实体,每个cpu上一个

       struct cfs_rq **cfs_rq;    普通进程调度队列,每个cpu上一个

#endif

 

#ifdef CONFIG_RT_GROUP_SCHED

       struct sched_rt_entity **rt_se;  实时进程调度实体,每个cpu上一个

       struct rt_rq **rt_rq;           实时进程调度队列,每个cpu上一个

#endif

}

下面只描述CFS组调度。在多核处理器平台上,内核在创建组的时候,内核会在每个cpu上给该组创建一个调度实体和一个调度队列,见上面图中红色方框外的部分。组在各个cpu上的调度实体se是单独被调度的。红色方框内是指在一个cpu上的调度数据结构。如果组在该cpu上有可以运行的进程,则组在该cpu上的调度实体se就会挂到该cpucfs_rq的红黑树上。组在该cpu上可以运行的进程则挂到了组调度实体semy_q指向的红黑树上,参见上图中右下角单个进程。

CFS组的优先级。组在创建时其优先级是固定的,其nice值为0。组在某cpu上所能获得的运行时间和一个单独的nice0的进程获得的运行时间相同。组的se在获得了一定运行时间后,按照CFS算法相同的方法把实际运行时间分配给其my_q上的所有进程。从而实现了A用户和B用户占用相同的CPU时间的目的。

 

疑问:有关进程权重表使用的疑问,在计算进程虚拟运行时间时,总是需要进行一次乘法和一次除法运算。大家都知道乘法和除法运算是比较消耗CPU周期的,为何不直接修改一下权重表prio_to_weight[]中的数值,使得其中的每一项数值都等于目前的数值除以15后取整(当然是人工计算出结果后替换到表中),使得优先级最小的进程的权重为1。在计算虚拟运行时间时可以直接乘以权重值,这样就可以减少一次除法了。这样是否更好?

另外,从代码中看到,nice0的进程在计算虚拟运行时间时是直接增加了真实的时间差,而没有进行乘和除的过程,如下图,是否是因为设计初衷认为大多数的普通进程的nice值都是0的缘故?