Linux内核进程调度以及定时器实现机制(转)_update process sleep time-程序员宅基地

技术标签: struct  timer  linux内核  list  数据结构  任务  

摘要】本文简单介绍了任务的各种状态和PCB的结构,分析了几种任务调度策略,详解了schedule,并分析了如何进行进程上下文切换;随后分析了2.6内核如何优化了任务调度算法;最后介绍了内核定时器的实现机制和系统调用的实现过程。

【关键词】进程控制块PCB,RR,FIFO,内核调度算法,任务切换,内核定时,timer,软中断softirq,系统调用

 

 

一、2.6版以前内核进程调度机制简介... 1

1、进程控制块数据结构... 1

2、进程调度... 2

3、进程上下文切换... 5

二、2.6版内核对进程调度的优化... 7

1、新调度算法简介... 7

2、2.6版新调度算法分析... 8

3、2.6版新调度算法流程图... 11

三、内核中断及定时器实现分析... 11

四、系统调用的实现过程... 14

参考资料:... 14

 

一、2.6版以前内核进程调度机制简介
Linux的进程管理由进程控制块、进程调度、中断处理、任务队列、定时器、bottom half队列、系统调用、进程通信等等部分组成。

 

进程调用分为实时进程调度和非实时进程调度两种。前者调度时,可以采用基于动态优先级的轮转法(RR),也可以采用先进先出算法(FIFO)。后者调度时,一律采用基于动态优先级的轮转法。某个进程采用何种调度算法由该进程的进程控制块中的某些属性决定,没有专门的系统用来处理关于进程调度的相关事宜。Linux的进程调度由schedule( )函数负责,任何进程,当它从系统调用返回时,都会转入schedule( ),而中断处理函数完成它们的响应任务以后,也会进入schedule( )。

 

1、进程控制块数据结构
Linux系统的进程控制块用数据结构task_struct表示,这个数据结构占用1680个字节,具体的内容不在这里介绍,详细内容见《Linux内核2.4版源代码分析大全》第二页。

进程的状态主要包括如下几个:

TASK_RUNNING  正在运行或在就绪队列run-queue中准备运行的进程,实际参与进程调度。

TASK_INTERRUPTIBLE      处于等待队列中的进程,待资源有效时唤醒,也可由其它进程通过信号或定时中断唤醒后进入就绪队列run-queue。

TASK_UNINTERRUPTIBLE 处于等待队列的进程,待资源有效时唤醒,不可由其它进程通过信号或者定时中断唤醒。

TASK_ZOMBIE     表示进程结束但尚未消亡的一种状态(僵死),此时,进程已经结束运行并且已经释放了大部分资源,但是尚未释放进程控制块。

TASK_STOPPED   进程暂停,通过其它进程的信号才能唤醒。

 

所有进程(以PCB形式)组成一个双向列表。next_task和prev_task就是链表的前后向指针。链表的头尾都是init_task(init进程)。不过进程还要根据其进程ID号插入到一个hash表当中,目的是加快进程搜索速度。

 

2、进程调度
Linux进程调度由schedule( )执行,其任务是在run-queue队列中选出一个就绪进程。

每个进程都有一个调度策略,在它的task_struct中规定(policy属性),或为SCHED_RR,SCHED_FIFO,或为SCHED_OTHER。前两种为实时进程调度策略,后一种为普通进程调度策略。

 

用户进程由do_fork( )函数创建,它也是fork系统调用的执行者。do_fork( )创建一个新的进程,继承父进程的现有资源,初始化进程时钟、信号、时间等数据。完成子进程的初始化后,父进程将它挂到就绪队列,返回子进程的pid。进程创建时的状态为TASK_UNINTERRUPTIBLE,在do_fork( )结束前被父进程唤醒后,变为TASK_RUNNING。处于TASK_RUNNING状态的进程被移到就绪队列中,当适当的时候由schedule( )按CPU调度算法选中,获得CPU。

 

如果进程采用轮转法,当时间片到时(10ms的整数倍),由时钟中断触发timer_interrupt( )函数引起新一轮的调度,把当前进程挂到就绪队列的尾部。获得CPU而正在运行的进程若申请不到某个资源,则调用sleep_on( )或interruptible_sleep_on( )睡眠,并进入就绪队列尾。状态为TASK_INTERRUPTIBLE的睡眠进程当它申请的资源有效时被唤醒,也可以由信号或者定时中断唤醒,唤醒以后进程状态变为TASK_RUNNING,并进入就绪队列。

 

首先介绍一下2.6版以前的的调度算法的主要思想,下面的schedule( )函数是内核2.4.23中摘录的:

asmlinkage void schedule(void)

{

       struct schedule_data * sched_data;

       struct task_struct *prev, *next, *p;

       struct list_head *tmp;

       int this_cpu, c;

 

       spin_lock_prefetch(&runqueue_lock);

 

       BUG_ON(!current->active_mm);

need_resched_back:

       /*记录当前进程和处理此进程的CPU号*/

       prev = current;

       this_cpu = prev->processor;

       /*判断是否处在中断当中,这里不允许在中断处理当中调用sechedule( )*/

       if (unlikely(in_interrupt( ))) {

              printk("Scheduling in interrupt/n");

              BUG( );

       }

 

       release_kernel_lock(prev, this_cpu);

 

       /*'sched_data' 是受到保护的,每个CPU只能运行一个进程。*/

       sched_data = & aligned_data[this_cpu].schedule_data;

 

       spin_lock_irq(&runqueue_lock);

 

       /*如果当前进程的调度策略是轮转RR,那么需要判断当前进程的时间片是否已经用完,如果已经用完,则重新计算时间片值,然后将该进程挂接到就绪队列run-queue的最后*/

       if (unlikely(prev->policy == SCHED_RR))

              if (!prev->counter) {

                     prev->counter = NICE_TO_TICKS(prev->nice);

                     move_last_runqueue(prev);

              }

       /*假如进程为TASK_INTERRUPTTIBLE状态,则将其状态置为TASK_RUNNING。如是其它状态,则将该进程转为睡眠状态,从运行队列中删除。(已不具备运行的条件) */

       switch (prev->state) {

              case TASK_INTERRUPTIBLE:

                     if (signal_pending(prev)) {

                            prev->state = TASK_RUNNING;

                            break;

                     }

              default:

                     del_from_runqueue(prev);

              case TASK_RUNNING:;

       }

       /*当前进程不需要重新调度*/

       prev->need_resched = 0;

 

       /*下面是一般的进程调度过程*/

repeat_schedule:

       next = idle_task(this_cpu);

       c = -1000;

       /*遍历进程就绪队列,如果该进程能够进行调度(对于SMP来说就是判断当前CPU未被占用能够执行这个进程,对于非SMP系统则为1),则计算该进程的优先级,如果优先级大于当前进程,则next指针指向新的进程,循环直到找到优先级最大的那个进程*/

       list_for_each(tmp, &runqueue_head) {

              p = list_entry(tmp, struct task_struct, run_list);

              if (can_schedule(p, this_cpu)) {

                     int weight = goodness(p, this_cpu, prev->active_mm);

                     if (weight > c)

                            c = weight, next = p;

              }

       }

 

       /* 判断是否需要重新计算每个进程的时间片,判断的依据是所有正准备进行调度的进程时间片耗尽,这时,就需要对就绪队列中的每一个进程都重新计算时间片,然后返回前面的调度过程,重新在就绪队列当中查找优先级最高的进程执行调度。 */

       if (unlikely(!c)) {

              struct task_struct *p;

 

              spin_unlock_irq(&runqueue_lock);

              read_lock(&tasklist_lock);

              for_each_task(p)

                     p->counter = (p->counter >> 1) + NICE_TO_TICKS(p->nice);

              read_unlock(&tasklist_lock);

              spin_lock_irq(&runqueue_lock);

              goto repeat_schedule;

       }

 

       /*CPU私有调度数据中记录当前进程的指针,并且将当前进程与CPU绑定,如果待调度进程与前面一个进程属于同一个进程,则不需要调度,直接返回。*/

       sched_data->curr = next;

       task_set_cpu(next, this_cpu);

       spin_unlock_irq(&runqueue_lock);

 

       if (unlikely(prev == next)) {

              /* We won't go through the normal tail, so do this by hand */

              prev->policy &= ~SCHED_YIELD;

              goto same_process;

       }

/*全局统计进程上下文切换次数*/

       kstat.context_swtch++;

       /*如果后进程的mm为0 (未分配页),则检查是否被在被激活的页里(active_mm),否则换页。令后进程记录前进程激活页的信息,将前进程的active_mm中的mm_count值加一。将cpu_tlbstate[cpu].state改为 TLBSTATE_LAZY(采用lazy模式) 如果后进程的mm不为0(已分配页),但尚未激活,换页。切换mm(switch_mm)。 如果前进程的mm 为0(已失效) ,将其激活记录置空,将mm结构引用数减一,删除该页。 */

       prepare_to_switch( );

       {

              struct mm_struct *mm = next->mm;

              struct mm_struct *oldmm = prev->active_mm;

              if (!mm) {

                     BUG_ON(next->active_mm);

                     next->active_mm = oldmm;

                     atomic_inc(&oldmm->mm_count);

                     enter_lazy_tlb(oldmm, next, this_cpu);

              } else {

                     BUG_ON(next->active_mm != mm);

                     switch_mm(oldmm, mm, next, this_cpu);

              }

 

              if (!prev->mm) {

                     prev->active_mm = NULL;

                     mmdrop(oldmm);

              }

       }

 

       /*切换到后进程,调度过程结束*/

       switch_to(prev, next, prev);

       __schedule_tail(prev);

 

same_process:

       reacquire_kernel_lock(current);

       if (current->need_resched)

              goto need_resched_back;

       return;

}

 

3、进程上下文切换
首先进程切换需要做什么?它做的事只是保留正在运行进程的"环境",并把将要运行的进程的"环境"加载上来,这个环境也叫上下文。它包括各个进程"公用"的东西,比如寄存器。
下一个问题,旧的进程环境保存在那,新的进程环境从那来,在i386上,有个tss段,是专用来保存进程运行环境的。在Linux来说,在结构task_struct中有个类型为struct thread_struct的成员叫tss,如下:

struct task_struct {

。。。

/* tss for this task */

struct thread_struct tss;

。。。

};

它是专用来存放进程环境的,这个结构体因CPU而异,你看它就能知道有那些寄存器是需要保存的了。 最后的问题就是切换了,虽然在i386上CPU可以自动根据tss去进行上下文的切换,但是Linux的程序员们更愿意自己做它,原因是这样能得到更有效的控制,而且作者说这和硬件切换的速度差不多,这可是真的够伟大的。

好了,现在来看源码,进程切换是使用switch_to这个宏来做的,当进入时prev即是现在运行的进程,next是接下来要切换到的进程,

#define switch_to(prev,next,last) do { /

asm volatile(

"pushl %%esi/n/t" /

"pushl %%edi/n/t" /

"pushl %%ebp/n/t" /

 

// 首先它切换堆栈指针,prev->tss.esp = %esp;%esp = next->tss.esp,这以后的堆栈已经是next的堆栈了。

"movl %%esp,%0/n/t" /* save ESP */ /

"movl %3,%%esp/n/t" /* restore ESP */ /

 

// 然后使进程prev的指针保存为标号为1的那一个指针,这样下次进程prev可以运行时,它第一个执行的就是pop指令。

"movl $1f,%1/n/t" /* save EIP */ /

 

// 把进程next保存的指针推进堆栈中,这句作用是,从__switch_to返回时,下一个要执行的指令将会是这个指针所指向的指令了。

"pushl %4/n/t" /* restore EIP */ /

 

// 使用jump跳到__switch_to函数的结果是:调用switch_to函数但不象call那样要压栈,但是ret返回时,仍是要弹出堆栈的,也就是上条指令中推进去的指令指针。这样,堆栈和指令都换了,进程也就被"切换"了。

"jmp __switch_to/n" /

 

// 由于上面所说的原因,__switch_to返回后并不会执行下面的语句,要执行到这,只有等进程prev重新被调度了。

"1:/t" /

"popl %%ebp/n/t" /

"popl %%edi/n/t" /

"popl %%esi/n/t" /

:"=m" (prev->tss.esp),"=m" (prev->tss.eip), /

"=b" (last) /

:"m" (next->tss.esp),"m" (next->tss.eip), /

"a" (prev), "d" (next), /

"b" (prev)); /

} while (0)

 

最后是__switch_to函数,它虽然是c形式,但内容还都是嵌入汇编。

 

// 这句可能需要你去记起前面第二章中所描述的gdt表的结构了,它的作用是把进程next的tss描述符的type中的第二位清0,这位表示这个描述符是不是当前正在用的描述符,作者说如果不清0就把它load进tss段寄存器的话,系统会报异常(我可没试过)。

gdt_table[next->tss.tr >> 3].b &= 0xfffffdff;

 

// 把进程next的tss段load到tss段存器中。

asm volatile("ltr %0": :"g" (*(unsigned short *)&next->tss.tr));

 

// 保存进程prev的fs和gs段寄存器

asm volatile("movl %%fs,%0":"=m" (*(int *)&prev->tss.fs));

asm volatile("movl %%gs,%0":"=m" (*(int *)&prev->tss.gs));

 

然后下面就是load进程next的ldt,页表,fs,gs,debug寄存器。

因为Linux一般并不使用ldt,所以它们一般会指向一个共同的空的ldt段描述符,这样就可能不需要切换ldt了,如果进程next和prev是共享内存的话,那么页表的转换也就不必要了(这一般发生在clone时)。

 

二、2.6版内核对进程调度的优化
1、新调度算法简介
2.6版本的Linux内核使用了新的调度器算法,称为O(1)算法,它在高负载的情况下执行得非常出色,并在有多个处理器时能够很好地扩展。 2.4版本的调度器中,时间片重算算法要求在所有的进程都用尽它们的时间片后,新时间片才会被重新计算。在一个多处理器系统中,当进程用完它们的时间片后不得不等待重算,以得到新的时间片,从而导致大部分处理器处于空闲状态,影响SMP的效率。此外,当空闲处理器开始执行那些时间片尚未用尽的、处于等待状态的进程时,会导致进程开始在处理器之间“跳跃”。当一个高优先级进程或交互式进程发生跳跃时,整个系统的性能就会受到影响。

 

新调度器解决上述问题的方法是,基于每个CPU来分布时间片,并取消全局同步和重算循环。调度器使用了两个优先级数组,即活动数组和过期数组,可以通过指针来访问它们。活动数组中包含所有映射到某个CPU且时间片尚未用尽的任务。过期数组中包含时间片已经用尽的所有任务的有序列表。如果所有活动任务的时间片都已用尽,那么指向这两个数组的指针互换,包含准备运行任务的过期数组成为活动数组,而空的活动数组成为包含过期任务的新数组。数组的索引存储在一个64位的位图中,所以很容易找到最高优先级的任务。

 

新调度器的主要优点包括:

◆     SMP效率 如果有工作需要完成,所有处理器都会工作。

◆     等待进程 没有进程需要长时间地等待处理器,也没有进程会无端地占用大量的CPU时间。

◆     SMP进程映射 进程只映射到一个CPU,而且不会在CPU之间跳跃。

◆     优先级 非重要任务的优先级低,反之亦然。

◆     负载平衡 调度器会降低那些超出处理器负载能力的进程的优先级。

◆     交互性能 即使在高负载的情况下,系统花费很长时间来响应鼠标点击或键盘输入的情况也不会再发生。

 

2.6版内核中,进程调度经过重新编写,调度程序不需每次都扫描所有的任务,而是在一个任务变成就绪状态时将其放到一个名为“当前”的队列中。当进程调度程序运行时,只选择队列中最有利的任务来执行。这样,调度可以在一个恒定的时间里完成。当任务执行时,它会得到一个时间段,或者在其转到另一线程之前得到一段时间的处理器使用权。当时间段用完后,任务会被转移到另一个名为“过期”的队列中。在该队列中,任务会根据其优先级进行排序。

 

从某种意义上说,所有位于“当前”队列的任务都将被执行,并被转移到“过期”队列中。当这种事情发生时,队列就会进行切换,原来的“过期”队列成为“当前”队列,而空的“当前”队列则变成“过期”队列。由于在新的“当前”队列中,任务已经被排列好,调度程序现在使用简单的队列算法,即总是取当前队列的第一个任务进行执行。这个新过程要比老过程快得多。

 

2、2.6版新调度算法分析
下面的schedule( )函数摘录自2.6.6版内核源码:

asmlinkage void __sched schedule(void)

{

       long *switch_count;

       task_t *prev, *next;

       runqueue_t *rq;

       prio_array_t *array;

       struct list_head *queue;

       unsigned long long now;

       unsigned long run_time;

       int idx;

 

if (likely(!(current->state & (TASK_DEAD | TASK_ZOMBIE)))) {

              if (unlikely(in_atomic( ))) {

                     printk(KERN_ERR "bad: scheduling while atomic!/n");

                     dump_stack( );

              }

       }

 

need_resched:

       preempt_disable( );

       prev = current;

       /*获取相应CPU的进程就绪队列,每一个CPU都会有一个进程就绪等待队列,每个等待队列包括两个优先级数组,活动数组和过期数组,两个数组可以进行轮换。CPU相关等待队列run-queue的数据结构定义如下:

struct runqueue {

       spinlock_t lock;      /*队列自旋锁*/

       unsigned long long nr_switches;/*进程上下文切换次数计数器*/

       unsigned long nr_running, expired_timestamp, nr_uninterruptible,

              timestamp_last_tick;

       task_t *curr, *idle;  /*标记当前CPU正在执行的任务及空闲任务的PCB指针*/

       struct mm_struct *prev_mm;       /*内存数据结构*/

       prio_array_t *active, *expired, arrays[2];     /*优先级活动和过期数组,活动数组用来标记当前时间片未用完并且处于等待调度状态的进程列表,而过期数组用来标记当前时间片消耗完毕,无法继续运行的进程列表*/

       int best_expired_prio, prev_cpu_load[NR_CPUS];

 

       task_t *migration_thread;

       struct list_head migration_queue;

 

       atomic_t nr_iowait;

}*/

       rq = this_rq( );

 

       release_kernel_lock(prev);

       now = sched_clock( );

       if (likely(now - prev->timestamp < NS_MAX_SLEEP_AVG))

              run_time = now - prev->timestamp;

       else

              run_time = NS_MAX_SLEEP_AVG;

 

       /*

        * Tasks with interactive credits get charged less run_time

        * at high sleep_avg to delay them losing their interactive

        * status

        */

       if (HIGH_CREDIT(prev))

              run_time /= (CURRENT_BONUS(prev) ? : 1);

 

       spin_lock_irq(&rq->lock);

 

       /*

        * if entering off of a kernel preemption go straight

        * to picking the next task.

        */

       switch_count = &prev->nivcsw;

       if (prev->state && !(preempt_count( ) & PREEMPT_ACTIVE)) {

              switch_count = &prev->nvcsw;

              if (unlikely((prev->state & TASK_INTERRUPTIBLE) &&

                            unlikely(signal_pending(prev))))

                     prev->state = TASK_RUNNING;

              else

                     deactivate_task(prev, rq);

       }

       /*如果当前就绪队列中没有正在运行的任务,则进行进程上下文切换,到空闲进程*/

       if (unlikely(!rq->nr_running)) {

#ifdef CONFIG_SMP

              load_balance(rq, 1, cpu_to_node_mask(smp_processor_id( )));

#endif

              if (!rq->nr_running) {

                     next = rq->idle;

                     rq->expired_timestamp = 0;

                     goto switch_tasks;

              }

       }

       /*获取当前活动数组指针,判断处于活动状态的进程数目,如果活动数组当中已经没有任何活动的进程,则需要将活动数组与过期数组进行对换,这样就可以很快的开始新一轮的调度,这里array指针总是指向活动数组。*/

       array = rq->active;

       if (unlikely(!array->nr_active)) {

              /*

               * Switch the active and expired arrays.

               */

              rq->active = rq->expired;

              rq->expired = array;

              array = rq->active;

              rq->expired_timestamp = 0;

              rq->best_expired_prio = MAX_PRIO;

       }

       /*由于调度器事先将活动数组的索引存放在了一个64位的bitmap位图结构当中,排序的依据是根据每个进程的优先级排列的,所以当我们需要查找当前活动数组中优先级最高的进程的索引时,仅仅需要从位图中找到最前面的一个索引值就可以了,而不需要象2.4内核那样每次遍历就绪队列,计算每个进程的优先级然后才能确定应该选择哪个进程作为下一个调度的对象。

 

查找到当前队列中优先级最高的进程索引,然后在列表中找到相应的进程。*/

       idx = sched_find_first_bit(array->bitmap);

       queue = array->queue + idx;

       next = list_entry(queue->next, task_t, run_list);

       /*一个进程的优先级是从0到MAX_PRIO-1(MAX_PRIO为140),实时进程优先级是从0到MAX_RT_PRIO-1(MAX_RT_PRIO为100),SCHED_NORMAL任务的优先级在MAX_RT_PRIO到MAX_PRIO-1之间,优先级值越小表明优先级越大。

在这里首先判断当前需要调度的进程是否为实时进程,如果不是看是不是处于活动状态,如果是,根据其消耗的时间片,重新计算优先级。*/

       if (!rt_task(next) && next->activated > 0) {

              unsigned long long delta = now - next->timestamp;

 

              if (next->activated == 1)

                     delta = delta * (ON_RUNQUEUE_WEIGHT * 128 / 100) / 128;

 

              array = next->array;

              dequeue_task(next, array);

              recalc_task_prio(next, next->timestamp + delta);

              enqueue_task(next, array);

       }

       next->activated = 0;

       /*开始进行进程切换,关于内核如何进行上下文切换这里就不看了*/

switch_tasks: 

       reacquire_kernel_lock(current);

       preempt_enable_no_resched( );

       if (test_thread_flag(TIF_NEED_RESCHED))

              goto need_resched;

}

 

3、2.6版新调度算法流程图
 

 

三、内核中断及定时器实现分析
定时器是Linux提供的一种定时服务的机制。它在某个特定的时间唤醒某个进程,来做一些工作。Linux初始化时,init_IRQ( )函数设定8253的定时周期为10ms(一个tick值)。同样,在初始化时,time_init( )用setup_irq( )设置时间中断向量irq0,中断服务程序为timer_interrupt。

 

在2.4版内核及较早的版本当中,定时器的中断处理采用底半部机制,底半处理函数的注册在start_kernel( )函数中调用sechd_init( ),在这个函数中又调用init_bh(TIMER_BH, timer_bh)注册了定时器的底半处理函数。然后系统才调用time_init( )来注册定时器的中断向量和中断处理函数。

 

在中断处理函数timer_interrupt( )中,主要是调用do_timer( )函数完成工作。do_timer( )函数的主要功能就是调用mark_bh( )产生软中断,随后处理器会在合适的时候调用定时器底半处理函数timer_bh( )。在timer_bh( )中,实现了更新定时器的功能。2.4.23版的do_timer( )函数代码如下(经过简略):

void do_timer(struct pt_regs *regs)

{

       (*(unsigned long *)&jiffies)++;

       update_process_times(user_mode(regs));

       mark_bh(TIMER_BH);

}

 

而在内核2.6版本以后,定时器中断处理采用了软中断机制而不是底半机制。时钟中断处理函数仍然为timer_interrup( )-> do_timer_interrupt( )-> do_timer_interrupt_hook( )-> do_timer( )。不过do_timer( )函数的实现有所不同:

void do_timer(struct pt_regs *regs)

{

       jiffies_64++;

       update_process_times(user_mode(regs));

       update_times( );

}

两者所调用的函数基本相同,但是2.4.23版内核与2.6.6内核中,对于update_process_times( )函数的实现不同:

void update_process_times(int user_tick)

{

       struct task_struct *p = current;

       int cpu = smp_processor_id( ), system = user_tick ^ 1;

 

       update_one_process(p, user_tick, system, cpu);

       run_local_timers( );

       scheduler_tick(user_tick, system);

}

update_process_times( )调用run_local_timers( )引起TIMER_SOFTIRQ定时器软中断,处理器在随后的合适的时机运行软中断处理函数run_timer_softirq,这个函数是在init_timers( )函数中注册的:

void __init init_timers(void)

{

       timer_cpu_notify(&timers_nb, (unsigned long)CPU_UP_PREPARE,

                            (void *)(long)smp_processor_id( ));

       register_cpu_notifier(&timers_nb);

       open_softirq(TIMER_SOFTIRQ, run_timer_softirq, NULL);

}

事实上软中断处理函数run_timer_softirq( )并没有做什么工作,主要的任务还是通过调用__run_timers( )函数完成的,这个函数相当于2.4.23内核当中的run_timer_list( )函数的功能。

static inline void __run_timers(tvec_base_t *base)

{

       struct timer_list *timer;

 

       spin_lock_irq(&base->lock);

       /*这里进入定时器处理循环,利用系统全局jiffies与定时器基准jiffies进行对比,如果前者大,则表明有某些定时器需要进行处理了,否则表示所有的定时器都没有超时*/

       while (time_after_eq(jiffies, base->timer_jiffies)) {

              struct list_head work_list = LIST_HEAD_INIT(work_list);

              struct list_head *head = &work_list;

             int index = base->timer_jiffies & TVR_MASK;

 

              /*

              在时间列表数据结构当中查找是否存在需要进行超时处理的定时器,时间列表的数据结构定义如下:

              typedef struct tvec_s {

                     struct list_head vec[TVN_SIZE];

} tvec_t;

 

typedef struct tvec_root_s {

                     struct list_head vec[TVR_SIZE];

} tvec_root_t;

             

struct tvec_t_base_s {

                     spinlock_t lock;

                     unsigned long timer_jiffies;

                     struct timer_list *running_timer;

                     tvec_root_t tv1;

                     tvec_t tv2;

                     tvec_t tv3;

                     tvec_t tv4;

                     tvec_t tv5;

} ____cacheline_aligned_in_smp;

 

*/

              if (!index &&

                     (!cascade(base, &base->tv2, INDEX(0))) &&

                            (!cascade(base, &base->tv3, INDEX(1))) &&

                                   !cascade(base, &base->tv4, INDEX(2)))

                     cascade(base, &base->tv5, INDEX(3));

              ++base->timer_jiffies;

              list_splice_init(base->tv1.vec + index, &work_list);

repeat:

/*如果当前找到的时间数组对应的列表不为空,则表明该列表上串连的所有定时器都已经超时,循环调用每个定时器的处理函数,并将其从列表中删除,直到列表为空为止。*/

              if (!list_empty(head)) {

                     void (*fn)(unsigned long);

                     unsigned long data;

 

                     timer = list_entry(head->next,struct timer_list,entry);

                    fn = timer->function;

                    data = timer->data;

 

                     list_del(&timer->entry);

                     set_running_timer(base, timer);

                     smp_wmb( );

                     timer->base = NULL;

                     spin_unlock_irq(&base->lock);

                     fn(data);

                     spin_lock_irq(&base->lock);

                     goto repeat;

              }

       }

       set_running_timer(base, NULL);

       spin_unlock_irq(&base->lock);

}

 

四、系统调用的实现过程
Linux系统调用的形式与POSIX兼容,也是一套C语言函数名的集合,如fork( ),read( )等等共221个。系统调用是通过INT 0x80软中断调用进入内核,然后根据系统调用号分门别类的进行服务。

系统调用号:文件include/asm-i386/unistd.h为每一个系统调用规定了唯一的编号,这个编号与真正的响应函数之间的关系是利用系统调用号为数组的下标,可以在sys_call_table(系统调用表数组)中查找对应的响应函数的sys_name的入口地址。

系统调用表:系统调用表sys_call_table是一组宏定义,将系统调用的编号和相应的内核系统调用处理函数的入口地址绑定。

 

内核宏定义syscallN( )用于系统调用的格式转换和参数的传递。其中N取0~6之间的任意整数。参数个数为N的系统调用由syscallN负责格式转换和参数传递。

 

对系统调用的初始化,即是对INT 0x80的初始化。系统启动时,汇编子程序setup_idt准备了256项的idt表。设置0x80号软中断服务程序system_call,这个就是所有系统调用的总入口。

 

当进程需要进行系统调用时,必须以C语言函数的形式写一句系统调用命令。该命令如果已经在某个头文件中由相应的syscallN( )展开,则用户程序必须包含该头文件。当进程执行到系统调用命令时,实际上执行的是syscallN( )展开的函数。系统调用的参数由寄存器传递,然后执行INT 0x80中断,以内核态进入入口地址system_call。

 

从system_call入口的汇编程序的主要功能是:

l         保存寄存器当前值;

l         检验是否为合法的系统调用;

l         根据系统调用表sys_call_table和EAX持有的系统调用号找出并转入系统调用响应函数;

l         从该响应函数返回后,让EAX寄存器保存函数返回值,跳转至ret_from_sys_call(arch/i386/kernel/entry.S)。

以ret_from_sys_call入口的汇编程序段在Linux进程管理中起着十分重要的作用。所有系统调用结束前,以及大部分中断服务程序返回前,都会跳转至此入口地址。反过来,该段程序也不仅仅为系统调用服务,它还要处理中断嵌套、bottom half队列、CPU调度、信号等事务。

 

参考资料:
《Linux内核源码》

《Linux内核2.4版源代码分析大全》

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/ctwei85/article/details/5502966

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签