中断:
Linux中,中断上半部不能嵌套,如果一直保存上下文,栈可能会溢出。中断上半部处理紧急事情,下半部处理非紧急事情。下半部通常通过软中断来实现。在上半部执行完后会执行下半部的软中断,如果囤积了A和B的下半部软中断,此时会把两个软中断都一起执行,即处理所有的软中断。因为系统心跳,滴答定时器中断的存在,每过10ms会触发一次硬件中断,即中断上半部,所以软中断一般都能得到及时的执行。内核中用tasklet软中断来处理中断下半部。但下半部若是执行时间过长也不太好,会阻碍系统程序运行,这时候可以把下半部用线程的方式处理,即可worker内核线程。可以再内核中创建一个work线程让他和其他任务一起调度,内部有一个work queue队列,中断上半部把要处理的work即执行函数.fun放入队列中,当worker获取cpu执行权限的时候,就会去执行中断下半部。但这样子只能在单个核上运行,并且前一个work没处理完后影响后一个work,可以通过threaded irq给每个中断的下半部函数创建一个内核线程,发生中断时,内核线程就会执行这个函数。(给每一个中断都创建一个内核线程,给中断irq注册中断服务的request_irq更改为用request_threaded_irq来注册中断的函数,上半部handler完成后,会唤醒内核线程,会去执行线程里运行的下半部函数thread_fn)
通过软件给某一个软件中断的flag=1了,表示这个软件中断产生了,那么这个软件中断的处理就是在处理完硬件中断(上半部)之后,顺便来处理。主要通过检查软件中断数组softirq_veq中有没有某一项的标志位为1,再来执行里面的函数。
工作队列是线程化的处理,而threaded irq是线程化的中断,就更进一步了
内核定时器(软件定时器)
源码位置include\linux\timer.h
定时器属于软件中断,通过定时器结构体timer_list存储定时器的相关信息和状态,初始化一个timer的时候要指定函数和data,在内核中用链表来管理多个定时器。 定时器的创建步骤:先设置一个定时器timer_setup,修改它的超时时间expires,add_timer把该定时器添加进内核里面,修改定时器超时时间可以用mod_timer。内核定时器的时间设置依托于系统滴答(tick)定时器,滴答定时器每隔10ms发生一次,全局变量jiffies就会累加1。内核定时器的值就是依托jiffies变量设定的。比如设置预期时间为jiffies+2,到时间后,内核就会去调用这个timer里面的函数。因为有多个按键,所以每个按键里面都应该有个timer_list结构体,即都有一个timer。对软件中断(软件定时器的使用示例)用于按键消抖,每次按键中断发生时都会刷新定时器的到达时间,只有定时时间到后,即软中断触发后,内核会去调用回调函数读取按键值。定时器使用完成后可用del_timer删除。在硬件中断发生后,系统会去检查软件中断,若有软件中断发生,则会去执行对应的函数。定时器(中断服务函数)也是在中断上下文中执行(中断的下半部),不能休眠,也要尽快返回。软中断不在进程上下文中,即没有进程上下文,无法进行调度操作,也就无法睡眠。
通过定时器timer_list结构体来管理,内部包含设置超时时间expires,回调函数function,传入回调函数的数据data等
按键中断中修改定时器时间
中断下半部:三种方式
硬件中断处理完成后,在返回被中断的程序之间,又会去处理软件中断。(硬件中断和软件中断是多对一的关系)软件中断通常有timer、tasklet等,会有一个softirq[]数组,其中某一个成员是tasklet,会从数组内取出action函数执行,软件中断tasklet对应的函数是tasklet_action,该函数会从某一个队列里取出里面的每一个tasklet结构体执行里面的函数func。 在中断上半部使用tasklet的时候,就是把一个预先设置好的tasklet结构体放入对应的队列(链表)中,处理软件中断时就会从这个链表里把你之前放进来的tasklet取出来,执行里面的函数。使用tasklet_schedule调度tasklet,将其放入链表(也只能执行一次,若要再次执行,则需要再次调度)。
tasklet_action从链表中取出每一项,判断下状态位,执行里面的函数。执行完后,会从链表里把它释放掉。
工作队列的内核线程,会去查看队列(链表)中有无work,有的话则把work一个个取出来执行。实际使用时,(1)需要构建一个work,初始化.func,(2)将work放入队列,并将内核线程唤醒(由schedule_work函数实现)。在2.0的内核中创建workqueue的同时会去每个cpu上创建一个内核线程,但是在哪个cpu上schedule_work会优先使用那个cpu的线程来处理那个work。在4.0的内核中,内核线程和工作队列时分开创建的,每个cpu下会先创建两个work_pool结构体用于管理内核线程,一个对应普通优先级的work,一个对应高优先级的work,之后对每个work_pool创建一个worker,每个worker对应一个内核线程。内核线程创建完成后开始创建工作队列work_queue,会与普通优先级的work_pool建立联系,在给work_queue添加工作的时候,会放入work_pool,放入对应的链表里,唤醒里面的某一个work线程。只有一个worker线程来处理这个work,优先会使用同一个cpu上的worker线程。
工作队列有个缺陷,就是当工作队列中有多个work时,前一个work没处理完会影响后面的work,要等待前一个工作work的完成。此时可以使用中断的线程化处理,下半部用一个内核线程处理,该内核线程专用于这个中断。一方面在多核cpu上时,可以同时运行多个内核线程在不同cpu核上。
MMU内存映射
应用程序不能直接读写驱动程序中的buffer,要在用户态buffer和内核态buffer间进行一次数据拷贝,但大数据传输时效率太低,可以通过mmap(memory map),把内核的buffer映射到用户态,让APP在用户态直接读写。
对于虚拟地址的概念:CPU发出的地址是虚拟地址,经过MMU(Memory Manage Unit)内存管理单元映射到物理地址上,对于不同进程的同一个虚拟地址,MMU会将它们映射到不同的物理地址上。
对于虚拟地址的映射过程:由CPU发出虚拟地址vaddr,MMU根据vaddr[31:20]高位找到一级页表项,段内偏移为[20:0]低位。即可从该表项中取出物理基地址加上偏移量,得到实际访问的物理地址。
由此可知道,我们若是想要给APP新建一块内存映射,给它开辟一块虚拟内存,让它指向某块内核buffer,需要完成以下步骤:(1)得到一块虚拟内存空间(虚拟地址):APP调用mmap时,内核就帮我们完成了(2)确定物理地址:需要由我们来提供(3)确定属性:是否使用cache、buffer(4)给虚拟地址和物理地址建立映射关系:内核中提供函数完成。所以其实mmap就是类似给MMU提供一个虚拟地址和物理地址的页表间的映射关系,下次访问时,由cpu提供虚拟地址,MMU就会通过页表将虚拟地址转换为对应的物理地址,从而实现对物理地址的访问。mmap实际上创建了一个虚拟地址和物理地址之间的映射关系,并通过操作系统内核为此建立了相应的页表。