在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

以x86 CPU架構理解Linux中斷機制

Linux閱碼場 ? 來源:Linux閱碼場 ? 作者:程磊 ? 2022-08-06 16:19 ? 次閱讀

一、中斷基本原理

中斷是計算機中非常重要的功能,其重要性不亞于人的神經系統加脈搏。雖然圖靈機和馮諾依曼結構中沒有中斷,但是計算機如果真的沒有中斷的話,那么計算機就相當于是半個殘疾人。今天我們就來全面詳細地講一講中斷。

1.1 中斷的定義

我們先來看一下中斷的定義:

中斷機制:CPU在執行指令時,收到某個中斷信號轉而去執行預先設定好的代碼,然后再返回到原指令流中繼續執行,這就是中斷機制。

可以發現中斷的定義非常簡單。我們根據中斷的定義來畫一張圖:

在圖靈機模型中,計算機是一直線性運行的。加入了中斷之后,計算機就可以透明地在進程執行流中插入一段代碼來執行。那么這么做的目的是什么呢?

1.2 中斷的作用

設計中斷機制的目的在于中斷機制有以下4個作用,這些作用可以幫助操作系統實現自己的功能。這四個作用分別是:

1.外設異步通知CPU:外設發生了什么事情或者完成了什么任務或者有什么消息要告訴CPU,都可以異步給CPU發通知。例如,網卡收到了網絡包,磁盤完成了IO任務,定時器的間隔時間到了,都可以給CPU發中斷信號。

2.CPU之間發送消息:在SMP系統中,一個CPU想要給另一個CPU發送消息,可以給其發送IPI(處理器間中斷)。

3.處理CPU異常:CPU在執行指令的過程中遇到了異常會給自己發送中斷信號來處理異常。例如,做整數除法運算的時候發現被除數是0,訪問虛擬內存的時候發現虛擬內存沒有映射到物理內存上。

4.實現系統調用:早期的系統調用就是靠中斷指令來實現的,后期雖然開發了專用的系統調用指令,但是其基本原理還是相似的。

1.3 中斷的產生

那么中斷信號又是如何產生的呢?中斷信號的產生有以下4個來源:

1.外設,外設產生的中斷信號是異步的,一般也叫做硬件中斷(注意硬中斷是另外一個概念)。硬件中斷按照是否可以屏蔽分為可屏蔽中斷和不可屏蔽中斷。例如,網卡、磁盤、定時器都可以產生硬件中斷。

2.CPU,這里指的是一個CPU向另一個CPU發送中斷,這種中斷叫做IPI(處理器間中斷)。IPI也可以看出是一種特殊的硬件中斷,因為它和硬件中斷的模式差不多,都是異步的。

3.CPU異常,CPU在執行指令的過程中發現異常會向自己發送中斷信號,這種中斷是同步的,一般也叫做軟件中斷(注意軟中斷是另外一個概念)。CPU異常按照是否需要修復以及是否能修復分為3類:1.陷阱(trap),不需要修復,中斷處理完成后繼續執行下一條指令,2.故障(fault),需要修復也有可能修復,中斷處理完成后重新執行之前的指令,3.中止(abort),需要修復但是無法修復,中斷處理完成后,進程或者內核將會崩潰。例如,缺頁異常是一種故障,所以也叫缺頁故障,缺頁異常處理完成后會重新執行剛才的指令。

4.中斷指令,直接用CPU指令來產生中斷信號,這種中斷和CPU異常一樣是同步的,也可以叫做軟件中斷。例如,中斷指令int 0x80可以用來實現系統調用。

中斷信號的4個來源正好對應著中斷的4個作用。前兩種中斷都可以叫做硬件中斷,都是異步的;后兩種中斷都可以叫做軟件中斷,都是同步的。很多書上也把硬件中斷叫做中斷,把軟件中斷叫做異常。

1.4 中斷的處理

那么中斷信號又是如何處理的呢?也許你會覺得這不是很簡單嗎,前面的圖里面不是畫的很清楚嗎,中斷信號就是在正常的執行流中插入一段中斷執行流啊。雖然這種中斷處理方式簡單又直接,但是它還存在著問題。

執行場景(execute context)

在繼續講解之前,我們先引入一個概念,執行場景(execute context)。在中斷產生之前是沒有這個概念的,有了中斷之后,CPU就分為兩個執行場景了,進程執行場景(process context)和中斷執行場景(interrupt context)。那么哪些是進程執行場景哪些是中斷執行場景呢?進程的執行是進程執行場景,同步中斷的處理也是進程執行場景,異步中斷的處理是中斷執行場景。可能有的人會對同步中斷的處理是進程執行場景感到疑惑,但是這也很好理解,因為同步中斷處理是和當前指令相關的,可以看做是進程執行的一部分。而異步中斷的處理和當前指令沒有關系,所以不是進程執行場景。

進程執行場景和中斷執行場景有兩個區別:一是進程執行場景是可以調度、可以休眠的,而中斷執行場景是不可以調度不可用休眠的;二是在進程執行場景中是可以接受中斷信號的,而在中斷執行場景中是屏蔽中斷信號的。所以如果中斷執行場景的執行時間太長的話,就會影響我們對新的中斷信號的響應性,所以我們需要盡量縮短中斷執行場景的時間。為此我們對異步中斷的處理有下面兩類辦法:

1.立即完全處理:

對于簡單好處理的異步中斷可以立即進行完全處理。

2.立即預處理 + 稍后完全處理:

對于處理起來比較耗時的中斷可以采取立即預處理加稍后完全處理的方式來處理。

為了方便表述,我們把立即完全處理和立即預處理都叫做中斷預處理,把稍后完全處理叫做中斷后處理。中斷預處理只有一種實現方式,就是直接處理。但是中斷后處理卻有很多種方法,其處理方法可以運行在中斷執行場景,也可以運行在進程執行場景,前者叫做直接中斷后處理,后者叫做線程化中斷后處理。

Linux中,中斷預處理叫做上半部,中斷后處理叫做下半部。由于“上半部、下半部”詞義不明晰,我們在本文中都用中斷預處理、中斷后處理來稱呼。中斷預處理只有一種方法,叫做hardirq(硬中斷)。中斷后處理有很多種方法,分為兩類,直接中斷后處理有softirq(軟中斷)、tasklet(微任務),線程化中斷后處理有workqueue(工作隊列)、threaded_irq(中斷線程)。

硬中斷、軟中斷是什么意思呢?本來的異步中斷處理是直接把中斷處理完的,整個過程是屏蔽中斷的,現在,把整個過程分成了兩部分,前半部分還是屏蔽中斷的,叫做硬中斷,處理與硬件相關的緊急事物,后半部分不再屏蔽中斷,叫做軟中斷,處理剩余的事物。由于軟中斷中不再屏蔽中斷信號,所以提高了系統對中斷的響應性。

注意硬件中斷、軟件中斷,硬中斷、軟中斷是不同的概念,分別指的是中斷的來源和中斷的處理方式。

1.5 中斷向量號

不同的中斷信號需要有不同的處理方式,那么系統是怎么區分不同的中斷信號呢?是靠中斷向量號。每一個中斷信號都有一個中斷向量號,中斷向量號是一個整數。CPU收到一個中斷信號會根據這個信號的中斷的向量號去查詢中斷向量表,根據向量表里面的指示去調用相應的處理函數。

中斷信號和中斷向量號是如何對應的呢?對于CPU異常來說,其向量號是由CPU架構標準規定的。對于外設來說,其向量號是由設備驅動動態申請的。對于IPI中斷和指令中斷來說,其向量號是由內核規定的。

那么中斷向量表是什么格式,應該如何設置呢,這個我們后面會講。

1.6 中斷框架結構

有了前面這么多基礎知識,下面我們對中斷機制做個概覽。

中斷信號的產生有兩類,分別是異步中斷和同步中斷,異步中斷包括外設中斷和IPI中斷,同步中斷包括CPU異常和指令中斷。無論是同步中斷還是異步中斷,都要經過中斷向量表進行處理。對于同步中斷的處理是異常處理或者系統調用,它們都是進程執行場景,所以沒有過多的處理方法,就是直接執行。對于異步中斷的處理,由于直接調用處理是屬于中斷執行場景,默認的中斷執行場景是會屏蔽中斷的,這會降低系統對中斷的響應性,所以內核開發出了很多的方法來解決這個問題。

下面的章節是對這個圖的詳細解釋,我們先講中斷向量表,再講中斷的產生,最后講中斷的處理。

本文后面都是以x86 CPU架構進行講解的。

二、中斷流程

CPU收到中斷信號后會首先保存被中斷程序的狀態,然后再去執行中斷處理程序,最后再返回到原程序中被中斷的點去執行。具體是怎么做呢?我們以x86為例講解一下。

2.1 保存現場

CPU收到中斷信號后會首先把一些數據push到內核棧上,保存的數據是和當前執行點相關的,這樣中斷完成后就可以返回到原執行點。如果CPU當前處于用戶態,則會先切換到內核態,把用戶棧切換為內核棧再去保存數據(內核棧的位置是在當前線程的TSS中獲取的)。下面我們畫個圖看一下:

CPU都push了哪些數據呢?分為兩種情況。當CPU處于內核態時,會push寄存器EFLAGS、CS、EIP的值到棧上,對于有些CPU異常還會push Error Code。Push CS、EIP是為了中斷完成后返回到原執行點,push EFLAGS是為了恢復之前的CPU狀態。當CPU處于用戶態時,會先切換到內核態,把棧切換到內核棧,然后push寄存器SS(old)、ESP(old)、EFLAGS、CS、EIP的值到新的內核棧,對于有些CPU異常還會push Error Code。Push SS(old)、ESP(old),是為了中斷返回的時候可以切換回原來的棧。有些CPU異常會push Error Code,這樣可以方便中斷處理程序知道更具體的異常信息。不是所有的CPU異常都會push Error Code,具體哪些會哪些不會在3.1節中會講。

上圖是32位的情況,64位的時候會push 64位下的寄存器。

2.2 查找向量表

保存完被中斷程序的信息之后,就要去執行中斷處理程序了。CPU會根據當前中斷信號的向量號去查詢中斷向量表找到中斷處理程序。CPU是如何獲得當前中斷信號的向量號的呢,如果是CPU異常可以在CPU內部獲取,如果是指令中斷,在指令中就有向量號,如果是硬件中斷,則可以從中斷控制器中獲取中斷向量號。那CPU又是怎么找到中斷向量表呢,是通過IDTR寄存器。IDTR寄存器的格式如下圖所示:

IDTR寄存器由兩部分組成:一部分是IDT基地址,在32位上是32位,在64位上是64位,是虛擬內存上的地址;一部分是IDT限長,是16位,單位是字節,代表中斷向量表的長度。雖然x86支持256個中斷向量,但是系統不一定要用滿256個,IDT限長用來指定中斷向量表的大小。系統在啟動時分配一定大小的內存用來做中斷向量表,然后通過LIDT指令設置IDTR寄存器的值,這樣CPU就知道中斷向量表的位置和大小了。

IDTR寄存器設置好之后,中斷向量表的內容還是可以再修改的。該如何修改呢,這就需要我們知道中斷向量表的數據結構了。中斷向量表是一個數組結構,數組的每一項叫做中斷向量表條目,每個條目都是一個門描述符(gate descriptor)。門描述符一共有三種類型,不同類型的具體結構不同,三類門描述符分別是任務門描述符、中斷門描述符、陷阱門描述符。任務門不太常用,后面我們都默認忽略任務門。中斷門一般用于硬件中斷,陷阱門一般用于軟件中斷。32位下的門描述符是8字節,下面是它們的具體結構:

Segment Selector是段選擇符,Offset是段偏移,兩個段偏移共同構成一個32的段偏移。p代表段是否加載到了內存。dpl是段描述符特權級。d為0代表是16位描述符,d為1代表是32位描述符。Type 是8 9 10三位,代表描述符的類型。

下面看一下64位門描述符的格式:

可以看到64位和32位最主要的變化是把段偏移變成了64位。

關于x86的分段機制,這里就不展開討論了,簡介地介紹一下其在Linux內核中的應用。Linux內核并不使用x86的分段機制,但是x86上特權級的切換還是需要用到分段。所以Linux采取的方法是,定義了四個段__KERNEL_CS、__KERNEL_DS、__USER_CS、__USER_DS,這四個段的段基址都是0,段限長都是整個內存大小,所以在邏輯上相當于不分段。但是這四個段的特權級不一樣,__KERNEL_CS、__KERNEL_DS是內核特權級,用在內核執行時,__USER_CS、__USER_DS是用戶特權級,用在進程執行時。由于中斷都運行在內核,所以所有中斷的門描述符的段選擇符都是__KERNEL_CS,而段偏移實際上就是終端處理函數的虛擬地址。

CPU現在已經把被中斷的程序現場保存到內核棧上了,又得到了中斷向量號,然后就根據中斷向量號從中斷向量表中找到對應的門描述符,對描述符做一番安全檢查之后,CPU就開始執行中斷處理函數(就是門描述符中的段偏移)。中斷處理函數的最末尾執行IRET指令,這個指令會根據前面保存在棧上的數據跳回到原來的指令繼續執行。

三、軟件中斷

對中斷的基本概念和整個處理流程有了大概的認識之后,我們來看一下軟件中斷的產生。軟件中斷有兩類,CPU異常和指令中斷。我們先來看CPU異常:

3.1 CPU異常

CPU在執行指令的過程中遇到了異常就會給自己發送中斷信號。注意異常不一定是錯誤,只要是異于平常就都是異常。有些異常不但不是錯誤,它還是實現內核重要功能的方法。CPU異常分為3類:1.陷阱(trap),陷阱并不是錯誤,而是想要陷入內核來執行一些操作,中斷處理完成后繼續執行之前的下一條指令,2.故障(fault),故障是程序遇到了問題需要修復,問題不一定是錯誤,如果問題能夠修復,那么中斷處理完成后會重新執行之前的指令,如果問題無法修復那就是錯誤,當前進程將會被殺死。3.中止(abort),系統遇到了很嚴重的錯誤,無法修改,一般系統會崩潰。

CPU異常的含義和其向量號都是架構標準提前定義好的,下面我們來看一下。

x86一共有256個中斷向量號,前32個(0-31)是Intel預留的,其中0-21(除了15)都已分配給特定的CPU異常。32-255是給硬件中斷和指令中斷保留的向量號。

3.2 指令中斷

指令中斷和CPU異常有很大的相似性,都屬于同步中斷,都是屬于因為執行指令而產生了中斷。不同的是CPU異常不是在執行特定的指令時發生的,也不是必然發生。而指令中斷是執行特定的指令而發生的中斷,設計這些指令的目的就是為了產生中斷的,而且一定會產生中斷或者有些條件成立的情況下一定會產生中斷。其中指令INT n可以產生任意中斷,n可以取任意值。Linux用int 0x80來作為系統調用的指令。

四、硬件中斷

硬件中斷分為外設中斷和處理器間中斷(IPI),下面我們先來看一下外設中斷。

4.1 外設中斷

外設中斷和軟件中斷有一個很大的不同,軟件中斷是CPU自己給自己發送中斷,而外設中斷是需要外設發送中斷給CPU。外設想要給CPU發送中斷,那就必須要連接到CPU,不可能隔空發送。那么怎么連接呢,如果所有外設都直接連到CPU,顯然是不可能的。因為一個計算機系統中的外設是非常多的,而且多種多樣,CPU無法提前為所有外設設計和預留接口。所以需要一個中間設備,就像秘書一樣替CPU連接到所有的外設并接收中斷信號,再轉發給CPU,這個設備就叫做中斷控制器(Interrupt Controller )。

在x86上,在UP時代的時候,有一個中斷控制器叫做PIC(Programmable Interrupt Controller )。所有的外設都連接到PIC上,PIC再連接到CPU的中斷引腳上。外設給PIC發中斷,PIC再把中斷轉發給CPU。由于PIC的設計問題,一個PIC只能連接8個外設,所以后來把兩個PIC級聯起來,第二個PIC連接到第一個PIC的一個引腳上,這樣一共能連接15個外設。

到了SMP時代的時候,PIC顯然不能勝任工作了,于是Intel開發了APIC(Advanced PIC)。APIC分為兩個部分:一部分是Local APIC,有NR_CPU個,每個CPU都連接一個Local APIC;一部分是IO APIC,只有一個,所有的外設都連接到這個IO APIC上。IO APIC連接到所有的Local APIC上,當外設向IO APIC發送中斷時,IO APIC會把中斷信號轉發給某個Local APIC。有些per CPU的設備是直接連接到Local APIC的,可以通過Local APIC直接給自己的CPU發送中斷。

外設中斷并不是直接分配中斷向量號,而是直接分配IRQ號,然后IRQ+32就是其中斷向量號。有些外設的IRQ是內核預先設定好的,有些是行業默認的IRQ號。

關于APIC的細節這里就不再闡述了,推薦大家去看《Interrupt in Linux (硬件篇)》,對APIC講的比較詳細。

4.2 處理器間中斷

在SMP系統中,多個CPU之間有時候也需要發送消息,于是就產生了處理器間中斷(IPI)。IPI既像軟件中斷又像硬件中斷,它的產生像軟件中斷,是在程序中用代碼發送的,而它的處理像硬件中斷,是異步的。我們這里把IPI看作是硬件中斷,因為一個CPU可以把另外一個CPU看做外設,就相當于是外設發來的中斷。

五、中斷處理

終于講到中斷處理了,我們再把之前的中間機制圖搬過來,再回顧一下:

無論是硬件中斷還是軟件中斷,都是通過中斷向量表進行處理的。但是不同的是,軟件中斷的處理程序是屬于進程執行場景,所以直接把中斷處理程序設置好就行了,中斷處理程序怎么寫也沒有什么要顧慮的。而硬件中斷的處理程序就不同了,它是屬于中斷執行場景。不僅其中斷處理函數中不能調用會阻塞、休眠的函數,而且處理程序本身要盡量的短,越短越好。所以為了使硬件中斷處理函數盡可能的短,Linux內核開發了一大堆方法。這些方法包括硬中斷(hardirq)、軟中斷(softirq)、微任務(tasklet)、中斷線程(threaded irq)、工作隊列(workqueue)。其實硬中斷嚴格來說不算是一種方法,因為它是中斷處理的必經之路,它就是中斷向量表里面設置的處理函數。為了和軟中斷進行區分,才把硬中斷叫做硬中斷。硬中斷和軟中斷都是屬于中斷執行場景,而中斷線程和工作隊列是屬于進程執行場景。把硬件中斷的處理任務放到進程場景里面來做,大大提高了中斷處理的靈活性。

由于軟件中斷的處理都是直接處理,都是內核本身直接寫好了的,一般都接觸不到,而硬件中斷的處理和硬件驅動密切相關,所以很多書上所講的中斷處理都是指的硬件中斷的處理。

5.1 異常處理

x86上的異常處理是怎么設置的呢?我們把前面的圖搬過來看一下:

我們對照著這個圖去捋代碼。首先我們需要分配一片內存來存放中斷向量表,這個是在如下代碼中分配的。

linux-src/arch/x86/kernel/idt.c

/* Must be page-aligned because the real IDT is used in the cpu entry area */static gate_desc idt_table[IDT_ENTRIES] __page_aligned_bss;

linux-src/arch/x86/include/asm/desc_defs.h

struct idt_bits { u16 ist : 3, zero : 5, type : 5, dpl : 2, p : 1;} __attribute__((packed));

struct gate_struct { u16 offset_low; u16

segment; struct idt_bits bits; u16 offset_middle;#ifdef CONFIG_X86_64 u32

offset_high;

u32

reserved;#endif} __attribute__((packed));

typedef struct gate_struct gate_desc;

linux-src/arch/x86/include/asm/segment.h

#define IDT_ENTRIES 256

可以看到我們的中斷向量表idt_table是門描述符gate_desc的數組,數組大小是IDT_ENTRIES 256。門描述符gate_desc的定義和前面畫的圖是一致的,注意x86是小端序。

寄存器IDTR內容包括IDT的基址和限長,為此我們專門定義一個數據結構包含IDT的基址和限長,然后就可以用這個變量通過LIDT指令來設置IDTR寄存器了。

linux-src/arch/x86/kernel/idt.c

static struct desc_ptr idt_descr __ro_after_init = { .size = IDT_TABLE_SIZE - 1, .address = (unsigned long) idt_table,};

linux-src/arch/x86/include/asm/desc.h

#define load_idt(dtr) native_load_idt(dtr)static __always_inline void native_load_idt(const struct desc_ptr *dtr){ asm volatile(“lidt %0”::“m” (*dtr));}

有一點需要注意的,我們并不是需要把idt_table完全初始化好了再去load_idt,我們可以先初始化一部分的idt_table,然后再去load_idt,之后可以不停地去完善idt_table。

我們先來看一下內核是什么時候load_idt的,其實內核有多次load_idt,不過實際上只需要一次就夠了。

調用棧如下:

start_kernel

setup_arch

idt_setup_early_traps

代碼如下:

linux-src/arch/x86/kernel/idt.c

void __init idt_setup_early_traps(void){ idt_setup_from_table(idt_table, early_idts, ARRAY_SIZE(early_idts), true); load_idt(&idt_descr);}

這是內核在start_kernel里第一次設置IDTR,雖然之前的代碼里也有設置過IDTR,我們就不考慮了。load_idt之后,IDT就生效了,只不過這里IDT還沒有設置全,只設置了少數幾個CPU異常的處理函數,我們來看一下是怎么設置的。

linux-src/arch/x86/kernel/idt.c

static __init voididt_setup_from_table(gate_desc *idt, const struct idt_data *t, int size, bool sys){ gate_desc desc;

for (; size 》 0; t++, size--) { idt_init_desc(&desc, t); write_idt_entry(idt, t-》vector, &desc);

if (sys)

set_bit(t-》vector, system_vectors); }}

static inline void idt_init_desc(gate_desc *gate, const struct idt_data *d){ unsigned long addr = (unsigned long) d-》addr;

gate-》offset_low = (u16) addr; gate-》segment

= (u16) d-》segment; gate-》bits

= d-》bits; gate-》offset_middle = (u16) (addr 》》 16);#ifdef CONFIG_X86_64 gate-》offset_high = (u32) (addr 》》 32); gate-》reserved = 0;#endif}

#define write_idt_entry(dt, entry, g)

native_write_idt_entry(dt, entry, g)static inline void native_write_idt_entry(gate_desc *idt, int entry, const gate_desc *gate){ memcpy(&idt[entry], gate, sizeof(*gate));}

在函數idt_setup_from_table里會定義一個gate_desc的臨時變量,然后用idt_data來初始化這個gate_desc,最后會把gate_desc復制到idt_table中對應的位置中去。這樣中斷向量表中的這一項就生效了。

下面我們再來看看idt_data數據是怎么來的:

linux-src/arch/x86/kernel/idt.c

static const __initconst struct idt_data early_idts[] = { INTG(X86_TRAP_DB,

asm_exc_debug), SYSG(X86_TRAP_BP, asm_exc_int3),};

#define G(_vector, _addr, _ist, _type, _dpl, _segment) {

.vector = _vector,

.bits.ist = _ist,

.bits.type = _type,

.bits.dpl = _dpl,

.bits.p = 1,

.addr = _addr, 。

segment = _segment, }

/* Interrupt gate */#define INTG(_vector, _addr)

G(_vector, _addr, DEFAULT_STACK, GATE_INTERRUPT, DPL0, __KERNEL_CS)

/* System interrupt gate */#define SYSG(_vector, _addr)

G(_vector, _addr, DEFAULT_STACK, GATE_INTERRUPT, DPL3, __KERNEL_CS)

linux-src/arch/x86/kernel/traps.c

DEFINE_IDTENTRY_DEBUG(exc_debug){ exc_debug_kernel(regs, debug_read_clear_dr6());}

EFINE_IDTENTRY_RAW(exc_int3){ /* * poke_int3_handler() is completely self contained code; it does (and * must) *NOT* call out to anything, lest it hits upon yet another

* INT3. */ if (poke_int3_handler(regs)) return;

/* * irqentry_enter_from_user_mode() uses static_branch_{,un}likely() * and therefore can trigger INT3, hence poke_int3_handler() must

* be done before. If the entry came from kernel mode, then use * nmi_enter() because the INT3 could have been hit in any context * including NMI.

*/ if (user_mode(regs)) { irqentry_enter_from_user_mode(regs);

instrumentation_begin();

do_int3_user(regs);

instrumentation_end();

irqentry_exit_to_user_mode(regs); } else {

irqentry_state_t irq_state = irqentry_nmi_enter(regs);

instrumentation_begin();

if (!do_int3(regs))

die(“int3”, regs, 0);

instrumentation_end(); irqentry_nmi_exit(regs, irq_state); }}

early_idts是idt_data的數組,在這里定義了兩個中斷向量表的條目,分別是X86_TRAP_DB和X86_TRAP_BP,它們的中斷處理函數分別是asm_exc_debug和asm_exc_int3。這里只是設置了兩個中斷向量表條目,并且把IDTR寄存器設置好了,后來就不需要再設置IDTR寄存器了。

下面我們看一下所有CPU異常的處理函數是怎么設置的。

先看調用棧:

start_kernel

trap_init

idt_setup_traps

代碼如下:

linux-src/arch/x86/kernel/idt.c

void __init idt_setup_traps(void){ idt_setup_from_table(idt_table, def_idts, ARRAY_SIZE(def_idts), true);}

static const __initconst struct idt_data def_idts[] = { INTG(X86_TRAP_DE, asm_exc_divide_error), ISTG(X86_TRAP_NMI,

asm_exc_nmi, IST_INDEX_NMI), INTG(X86_TRAP_BR,

asm_exc_bounds), INTG(X86_TRAP_UD,

asm_exc_invalid_op), INTG(X86_TRAP_NM, asm_exc_device_not_available),

INTG(X86_TRAP_OLD_MF,

asm_exc_coproc_segment_overrun), INTG(X86_TRAP_TS,

asm_exc_invalid_tss), INTG(X86_TRAP_NP,

asm_exc_segment_not_present), INTG(X86_TRAP_SS,

asm_exc_stack_segment), INTG(X86_TRAP_GP,

asm_exc_general_protection), INTG(X86_TRAP_SPURIOUS,

asm_exc_spurious_interrupt_bug), INTG(X86_TRAP_MF,

asm_exc_coprocessor_error), INTG(X86_TRAP_AC,

asm_exc_alignment_check), INTG(X86_TRAP_XF,

asm_exc_simd_coprocessor_error),

#ifdef CONFIG_X86_32 TSKG(X86_TRAP_DF,

GDT_ENTRY_DOUBLEFAULT_TSS),#else ISTG(X86_TRAP_DF,

asm_exc_double_fault, IST_INDEX_DF),#endif ISTG(X86_TRAP_DB, asm_exc_debug, IST_INDEX_DB),

#ifdef CONFIG_X86_MCE ISTG(X86_TRAP_MC,

asm_exc_machine_check, IST_INDEX_MCE),#endif

#ifdef CONFIG_AMD_MEM_ENCRYPT ISTG(X86_TRAP_VC,

asm_exc_vmm_communication, IST_INDEX_VC),#endif

SYSG(X86_TRAP_OF,

asm_exc_overflow),#if defined(CONFIG_IA32_EMULATION) SYSG(IA32_SYSCALL_VECTOR,

entry_INT80_compat),#elif defined(CONFIG_X86_32) SYSG(IA32_SYSCALL_VECTOR,

entry_INT80_32),#endif};

可以看到這次設置非常簡單,就是調用了一下idt_setup_from_table,并沒有調用load_idt。主要是數組def_idts里面包含了大部分的CPU異常處理。但是沒缺頁異常,缺頁異常是單獨設置。設置路徑如下:

調用棧:

start_kernel

setup_arch

idt_setup_early_pf

代碼如下:

linux-src/arch/x86/kernel/idt.c

void __init idt_setup_early_pf(void){ idt_setup_from_table(idt_table, early_pf_idts,

ARRAY_SIZE(early_pf_idts), true);}

static const __initconst struct idt_data early_pf_idts[] = { INTG(X86_TRAP_PF,

asm_exc_page_fault),};

現在CPU異常的中斷處理函數就全部設置完成了,想要研究具體哪個異常是怎么處理的同學,可以去跟蹤研究一下相應的函數。

5.2 硬中斷(hardirq)

硬件中斷的中斷處理和軟件中斷有一部分是相同的,有一部分卻有很大的不同。對于IPI中斷和per CPU中斷,其設置是和軟件中斷相同的,都是一步到位設置到具體的處理函數。但是對于余下的外設中斷,只是設置了入口函數,并沒有設置具體的處理函數,而且是所有的外設中斷的處理函數都統一到了同一個入口函數。然后在這個入口函數處會調用相應的irq描述符的handler函數,這個handler函數是中斷控制器設置的。中斷控制器設置的這個handler函數會處理與這個中斷控制器相關的一些事物,然后再調用具體設備注冊的irqaction的handler函數進行具體的中斷處理。

我們先來看一下對中斷向量表條目的設置代碼。

調用棧如下:

start_kernel

init_IRQ

native_init_IRQ

idt_setup_apic_and_irq_gates

代碼如下:

linux-src/arch/x86/kernel/idt.c

/** * idt_setup_apic_and_irq_gates - Setup APIC/SMP and normal interrupt gates */void __init idt_setup_apic_and_irq_gates(void){ int i = FIRST_EXTERNAL_VECTOR; void *entry;

idt_setup_from_table(idt_table, apic_idts, ARRAY_SIZE(apic_idts), true);

for_each_clear_bit_from(i, system_vectors, FIRST_SYSTEM_VECTOR) {

entry = irq_entries_start + 8 * (i - FIRST_EXTERNAL_VECTOR);

set_intr_gate(i, entry); }

#ifdef CONFIG_X86_LOCAL_APIC for_each_clear_bit_from(i, system_vectors, NR_VECTORS) {

/* * Don‘t set the non assigned system vectors in the * system_vectors bitmap. Otherwise they show up in

* /proc/interrupts. */ entry = spurious_entries_start + 8 * (i - FIRST_SYSTEM_VECTOR);

set_intr_gate(i, entry); }#endif /* Map IDT into CPU entry area and reload it. */ idt_map_in_cea(); load_idt(&idt_descr);

/* Make the IDT table read only */ set_memory_ro((unsigned long)&idt_table, 1);

idt_setup_done = true;}

static const __initconst struct idt_data apic_idts[] = {#ifdef CONFIG_SMP INTG(RESCHEDULE_VECTOR,

asm_sysvec_reschedule_ipi), INTG(CALL_FUNCTION_VECTOR,

asm_sysvec_call_function),

INTG(CALL_FUNCTION_SINGLE_VECTOR, asm_sysvec_call_function_single), INTG(IRQ_MOVE_CLEANUP_VECTOR,

asm_sysvec_irq_move_cleanup), INTG(REBOOT_VECTOR,

asm_sysvec_reboot),#endif

#ifdef CONFIG_X86_THERMAL_VECTOR INTG(THERMAL_APIC_VECTOR,

asm_sysvec_thermal),#endif

#ifdef CONFIG_X86_MCE_THRESHOLD INTG(THRESHOLD_APIC_VECTOR,

asm_sysvec_threshold),#endif

#ifdef CONFIG_X86_MCE_AMD INTG(DEFERRED_ERROR_VECTOR,

asm_sysvec_deferred_error),#endif

#ifdef CONFIG_X86_LOCAL_APIC INTG(LOCAL_TIMER_VECTOR,

asm_sysvec_apic_timer_interrupt), INTG(X86_PLATFORM_IPI_VECTOR,

asm_sysvec_x86_platform_ipi),# ifdef CONFIG_HAVE_KVM INTG(POSTED_INTR_VECTOR,

asm_sysvec_kvm_posted_intr_ipi), INTG(POSTED_INTR_WAKEUP_VECTOR, asm_sysvec_kvm_posted_intr_wakeup_ipi), INTG(POSTED_INTR_NESTED_VECTOR,

asm_sysvec_kvm_posted_intr_nested_ipi),# endif# ifdef CONFIG_IRQ_WORK INTG(IRQ_WORK_VECTOR,

asm_sysvec_irq_work),# endif INTG(SPURIOUS_APIC_VECTOR,

asm_sysvec_spurious_apic_interrupt), INTG(ERROR_APIC_VECTOR,

asm_sysvec_error_interrupt),#endif};

static __init void set_intr_gate(unsigned int n, const void *addr){ struct idt_data data;

init_idt_data(&data, n, addr);

idt_setup_from_table(idt_table, &data, 1, false);}

linux-src/arch/x86/include/asm/desc.h

static inline void init_idt_data(struct idt_data *data, unsigned int n,

const void *addr){ BUG_ON(n 》 0xFF);

memset(data, 0, sizeof(*data)); data-》vector = n;

data-》addr = addr;

data-》segment = __KERNEL_CS; data-》bits.type = GATE_INTERRUPT; data-》bits.p = 1;}

linux-src/arch/x86/include/asm/idtentry.h

SYM_CODE_START(irq_entries_start)

vector=FIRST_EXTERNAL_VECTOR

.rept NR_EXTERNAL_VECTORS UNWIND_HINT_IRET_REGS0 :

.byte 0x6a, vector jmp asm_common_interrupt nop

/* Ensure that the above is 8 bytes max */

。 = 0b + 8 vector = vector+1

.endrSYM_CODE_END(irq_entries_start)

linux-src/arch/x86/kernel/irq.c

DEFINE_IDTENTRY_IRQ(common_interrupt){ struct pt_regs *old_regs = set_irq_regs(regs); struct irq_desc *desc;

/* entry code tells RCU that we’re not quiescent. Check it. */ RCU_LOCKDEP_WARN(!rcu_is_watching(), “IRQ failed to wake up RCU”);

desc = __this_cpu_read(vector_irq[vector]); if (likely(!IS_ERR_OR_NULL(desc))) {

handle_irq(desc, regs); } else { ack_APIC_irq();

if (desc == VECTOR_UNUSED) {

pr_emerg_ratelimited(“%s: %d.%u No irq handler for vector

”, __func__, smp_processor_id(),

vector); } else { __this_cpu_write(vector_irq[vector], VECTOR_UNUSED); } }

set_irq_regs(old_regs);}

static __always_inline void handle_irq(struct irq_desc *desc,

struct pt_regs *regs){ if (IS_ENABLED(CONFIG_X86_64))

generic_handle_irq_desc(desc);

else __handle_irq(desc, regs);}

linux-src/arch/x86/kernel/irqinit.c

DEFINE_PER_CPU(vector_irq_t, vector_irq) = { [0 。.. NR_VECTORS - 1] = VECTOR_UNUSED,};

linux-src/arch/x86/include/asm/hw_irq.h

typedef struct irq_desc* vector_irq_t[NR_VECTORS];

linux-src/include/linux/irqdesc.h

static inline void generic_handle_irq_desc(struct irq_desc *desc){ desc-》handle_irq(desc);}

從上面的代碼可以看出,對硬件中斷的設置分為兩個部分,一部分就像前面的軟件中斷的方式一樣,是從apic_idts數組設置的,設置的都是一些IPI和per CPU的中斷。另一部分是把所有剩余的硬件中斷的處理函數都設置為irq_entries_start,irq_entries_start會調用common_interrupt函數。在common_interrupt函數中會根據中斷向量號去讀取per CPU的數組變量vector_irq,得到一個irq_desc。最終會調用irq_desc中的handle_irq來處理這個中斷。

對于外設中斷為什么要采取這樣的處理方式呢?有兩個原因,1是因為外設中斷和中斷控制器相關聯,這樣可以統一處理與中斷控制器相關的事物,2是因為外設中斷的驅動執行比較晚,有些設備還是可以熱插拔的,直接把它們放到中斷向量表上比較麻煩。有個irq_desc這個中間層,設備驅動后面只需要調用函數request_irq來注冊ISR,只處理與設備相關的業務就可以了,而不用考慮和中斷控制器硬件相關的處理。

我們先來看一下vector_irq數組是怎么初始化的。

linux-src/arch/x86/kernel/apic/vector.c

void lapic_online(void){ unsigned int vector;

lockdep_assert_held(&vector_lock);

/* Online the vector matrix array for this CPU */ irq_matrix_online(vector_matrix);

/* * The interrupt affinity logic never targets interrupts to offline

* CPUs. The exception are the legacy PIC interrupts. In general

* they are only targeted to CPU0, but depending on the platform

* they can be distributed to any online CPU in hardware. The

* kernel has no influence on that. So all active legacy vectors * must be installed on all CPUs. All non legacy interrupts can be

* cleared. */ for (vector = 0; vector 《 NR_VECTORS; vector++)

this_cpu_write(vector_irq[vector], __setup_vector_irq(vector));}

static struct irq_desc *__setup_vector_irq(int vector){ int isairq = vector - ISA_IRQ_VECTOR(0);

/* Check whether the irq is in the legacy space */ if (isairq 《 0 || isairq 》= nr_legacy_irqs())

return VECTOR_UNUSED; /* Check whether the irq is handled by the IOAPIC */ if (test_bit(isairq, &io_apic_irqs))

return VECTOR_UNUSED; return irq_to_desc(isairq);}

linux-src/kernel/irq/irqdesc.c

struct irq_desc *irq_to_desc(unsigned int irq){return radix_tree_lookup(&irq_desc_tree, irq);}

可以看出vector_irq數組的初始化數據是從irq_desc_tree來的,我們再來看一下irq_desc_tree是怎么初始化的。

linux-src/kernel/irq/irqdesc.c

int __init early_irq_init(void){ int i, initcnt, node = first_online_node; struct irq_desc *desc;

init_irq_default_affinity();

/* Let arch update nr_irqs and return the nr of preallocated irqs */ initcnt = arch_probe_nr_irqs();

printk(KERN_INFO “NR_IRQS: %d, nr_irqs: %d, preallocated irqs: %d

”, NR_IRQS, nr_irqs, initcnt);

if (WARN_ON(nr_irqs 》 IRQ_BITMAP_BITS)) nr_irqs = IRQ_BITMAP_BITS;

if (WARN_ON(initcnt 》 IRQ_BITMAP_BITS)) initcnt = IRQ_BITMAP_BITS;

if (initcnt 》 nr_irqs) nr_irqs = initcnt;

for (i = 0; i 《 initcnt; i++) {

desc = alloc_desc(i, node, 0, NULL, NULL);

set_bit(i, allocated_irqs);

irq_insert_desc(i, desc); } return arch_early_irq_init();}

可以看到vector_irq數組的內容是在系統初始化的時候通過alloc_desc函數為每個irq進行分配的。在alloc_desc中對irq_desc的初始化會把handle_irq函數指針默認初始化為handle_bad_irq,這個函數代表還沒有中斷控制器注冊這個函數,handle_bad_irq只是簡單地確認一下中斷,然后做個錯誤記錄。

中斷控制器注冊handle_irq函數的代碼如下:

linux-src/kernel/irq/chip.c

void__irq_set_handler(unsigned int irq, irq_flow_handler_t handle, int is_chained,

const char *name){ unsigned long flags; struct irq_desc *desc = irq_get_desc_buslock(irq, &flags, 0);

if (!desc) return;

__irq_do_set_handler(desc, handle, is_chained, name); irq_put_desc_busunlock(desc, flags);}

static void__irq_do_set_handler(struct irq_desc *desc, irq_flow_handler_t handle,

int is_chained, const char *name){ if (!handle) {

handle = handle_bad_irq; } else { struct irq_data *irq_data = &desc-》irq_data;#ifdef CONFIG_IRQ_DOMAIN_HIERARCHY

/* * With hierarchical domains we might run into a * situation where the outermost chip is not yet set

* up, but the inner chips are there. Instead of * bailing we install the handler, but obviously we

* cannot enable/startup the interrupt at this point.

*/ while (irq_data) {

if (irq_data-》chip != &no_irq_chip) break;

/* * Bail out if the outer chip is not set up

* and the interrupt supposed to be started * right away.

*/ if (WARN_ON(is_chained)) return; /* Try the parent */

irq_data = irq_data-》parent_data; }#endif if (WARN_ON(!irq_data || irq_data-》chip == &no_irq_chip))

return; }

/* Uninstall? */ if (handle == handle_bad_irq) {

if (desc-》irq_data.chip != &no_irq_chip) mask_ack_irq(desc);

irq_state_set_disabled(desc); if (is_chained) desc-》action = NULL;

desc-》depth = 1; } desc-》handle_irq = handle; desc-》name = name;

if (handle != handle_bad_irq && is_chained) { unsigned int type = irqd_get_trigger_type(&desc-》irq_data);

/* * We‘re about to start this interrupt immediately,

* hence the need to set the trigger configuration.

* But the .set_type callback may have overridden the

* flow handler, ignoring that we’re dealing with a

* chained interrupt. Reset it immediately because we * do know better.

*/ if (type != IRQ_TYPE_NONE) {

__irq_set_trigger(desc, type);

desc-》handle_irq = handle; }

irq_settings_set_noprobe(desc);

irq_settings_set_norequest(desc);

irq_settings_set_nothread(desc);

desc-》action = &chained_action;

irq_activate_and_startup(desc, IRQ_RESEND); }}

不同的系統有不同的中斷控制器,其在啟動初始化的時候都會去注冊irq_desc的handle_irq函數。

下面我們再來看一下具體的硬件驅動應該如何注冊自己設備的ISR:

linux-src/include/linux/interrupt.h

static inline int __must_checkrequest_irq(unsigned int irq, irq_handler_t handler, unsigned long flags,

const char *name, void *dev){ return request_threaded_irq(irq, handler, NULL, flags, name, dev);}

linux-src/kernel/irq/manage.c

int request_threaded_irq(unsigned int irq, irq_handler_t handler,

irq_handler_t thread_fn, unsigned long irqflags,

const char *devname, void *dev_id);

驅動程序使用request_irq接口來注冊自己的ISR,ISR就是運行在硬中斷的,參數handler代表的就是ISR。request_irq又調用request_threaded_irq來實現自己。request_threaded_irq是用來創建中斷線程的函數接口,其中有兩個參數handler、thread_fn,都是函數指針,handler代表的是ISR,是進行中斷預處理的,thread_fn代表的是要創建的中斷線程的入口函數,是進行中斷后處理的。中斷線程的細節我們在5.5中斷線程中再細講。

我們再來總結一下外設中斷的處理方式。外設中斷的向量表條目都被統一設置到同一個函數common_interrupt。在函數common_interrupt中又會根據irq參數去一個類型為irq_desc的vector_irq數組中尋找其對應的irq_desc,并用irq_desc的handle_irq來處理這個中斷。vector_irq數組是在系統啟動時初始化的,每個irq_desc的handle_irq都是中斷控制器初始化時設置的,handle_irq的處理是和中斷控制器密切相關的。具體的硬件驅動會通過request_irq接口來注冊ISR,每個ISR都會生成一個irqaction,這個irqaction會掛在irq_desc的鏈表上。這樣中斷發生時handle_irq就可以去執行與irq相對應的每個ISR了。

5.3 軟中斷(softirq)

軟中斷是把中斷處理程序分成了兩段:前一段叫做硬中斷,執行驅動的ISR,處理與硬件密切相關的事,在此期間是禁止中斷的;后一段叫做軟中斷,軟中斷中處理和硬件不太密切的事物,在此期間是開中斷的,可以繼續接受硬件中斷。軟中斷的設計提高了系統對中斷的響應性。下面我們先說軟中斷的執行時機,然后再說軟中斷的使用接口。

軟中斷也是中斷處理程序的一部分,是在ISR執行完成之后運行的,在ISR中可以向軟中斷中添加任務,然后軟中斷有事要做就會運行了。有些時候當軟中斷過多,處理不過來的時候,也會喚醒ksoftirqd/x線程來執行軟中斷。

linux-src/kernel/irq/irqdesc.c

int handle_domain_irq(struct irq_domain *domain,

unsigned int hwirq, struct pt_regs *regs){ struct pt_regs *old_regs = set_irq_regs(regs);

struct irq_desc *desc; int ret = 0;

irq_enter();

/* The irqdomain code provides boundary checks */

desc = irq_resolve_mapping(domain, hwirq); if (likely(desc))

handle_irq_desc(desc); else ret = -EINVAL;

irq_exit(); set_irq_regs(old_regs); return ret;}

linux-src/kernel/softirq.c

void irq_exit(void){ __irq_exit_rcu(); rcu_irq_exit(); /* must be last! */ lockdep_hardirq_exit();}

static inline void __irq_exit_rcu(void){#ifndef __ARCH_IRQ_EXIT_IRQS_DISABLED local_irq_disable();#else

lockdep_assert_irqs_disabled();#endif account_hardirq_exit(current); preempt_count_sub(HARDIRQ_OFFSET);

if (!in_interrupt() && local_softirq_pending()) invoke_softirq();

tick_irq_exit();}

static inline void invoke_softirq(void){ if (ksoftirqd_running(local_softirq_pending())) return;

if (!force_irqthreads() || !__this_cpu_read(ksoftirqd)) {#ifdef CONFIG_HAVE_IRQ_EXIT_ON_IRQ_STACK

/* * We can safely execute softirq on the current stack if * it is the irq stack, because it should be near empty

* at this stage. */ __do_softirq();#else /* * Otherwise, irq_exit() is called on the task stack that can

* be potentially deep already. So call softirq in its own stack

* to prevent from any overrun.

*/ do_softirq_own_stack();#endif } else { wakeup_softirqd(); }}

asmlinkage __visible void __softirq_entry __do_softirq(void){ unsigned long end = jiffies + MAX_SOFTIRQ_TIME; unsigned long old_flags = current-》flags; int max_restart = MAX_SOFTIRQ_RESTART;

struct softirq_action *h;

bool in_hardirq; __u32 pending; int softirq_bit;

static int i = 0; if(++i == 50) dump_stack();

/* * Mask out PF_MEMALLOC as the current task context is borrowed for the * softirq. A softirq handled, such as network RX, might set PF_MEMALLOC * again if the socket is related to swapping.

*/ current-》flags &= ~PF_MEMALLOC;

pending = local_softirq_pending();

softirq_handle_begin(); in_hardirq = lockdep_softirq_start(); account_softirq_enter(current);

restart: /* Reset the pending bitmask before enabling irqs */ set_softirq_pending(0);

local_irq_enable();

h = softirq_vec;

while ((softirq_bit = ffs(pending))) { unsigned int vec_nr; int prev_count;

h += softirq_bit - 1;

vec_nr = h - softirq_vec; prev_count = preempt_count();

kstat_incr_softirqs_this_cpu(vec_nr);

trace_softirq_entry(vec_nr); h-》action(h); trace_softirq_exit(vec_nr); if (unlikely(prev_count != preempt_count())) { pr_err(“huh, entered softirq %u %s %p with preempt_count %08x, exited with %08x?

”, vec_nr, softirq_to_name[vec_nr], h-》action, prev_count, preempt_count()); preempt_count_set(prev_count); } h++; pending 》》= softirq_bit; }

if (!IS_ENABLED(CONFIG_PREEMPT_RT) && __this_cpu_read(ksoftirqd) == current) rcu_softirq_qs();

local_irq_disable();

pending = local_softirq_pending(); if (pending) { if (time_before(jiffies, end) && !need_resched() && --max_restart) goto restart;

wakeup_softirqd(); }

account_softirq_exit(current); lockdep_softirq_end(in_hardirq); softirq_handle_end(); current_restore_flags(old_flags, PF_MEMALLOC);}

可以看到__do_softirq在執行軟中斷前會打開中斷local_irq_enable(),在執行完軟中斷之后又會關閉中斷local_irq_disable()。所以軟中斷執行期間CPU是可以接收硬件中斷的。

下面我們再來看一下軟中斷的使用接口。軟中斷定義了一個softirq_action類型的數組,數組大小是NR_SOFTIRQS,代表軟中斷的類型,目前只有10種軟中斷類型。softirq_action結構體里面僅僅只有一個函數指針。當我們要設置某一類軟中斷的處理函數時使用接口open_softirq。當我們想要觸發某一類軟中斷的執行時使用接口raise_softirq。

下面我們來看一下代碼:

linux-src/include/linux/interrupt.h

enum{ HI_SOFTIRQ=0, TIMER_SOFTIRQ, NET_TX_SOFTIRQ, NET_RX_SOFTIRQ, BLOCK_SOFTIRQ,

IRQ_POLL_SOFTIRQ, TASKLET_SOFTIRQ, SCHED_SOFTIRQ, HRTIMER_SOFTIRQ,

RCU_SOFTIRQ, /* Preferable RCU should always be the last softirq */

NR_SOFTIRQS};

struct softirq_action{ void (*action)(struct softirq_action *);};

linux-src/kernel/softirq.c

static struct softirq_action softirq_vec[NR_SOFTIRQS] __cacheline_aligned_in_smp;

void open_softirq(int nr, void (*action)(struct softirq_action *)){ softirq_vec[nr].action = action;}

void raise_softirq(unsigned int nr){ unsigned long flags;

local_irq_save(flags); raise_softirq_irqoff(nr); local_irq_restore(flags);}

inline void raise_softirq_irqoff(unsigned int nr){ __raise_softirq_irqoff(nr);

/* * If we‘re in an interrupt or softirq, we’re done * (this also catches softirq-disabled code)。 We will

* actually run the softirq once we return from * the irq or softirq. * * Otherwise we wake up ksoftirqd to make sure we

* schedule the softirq soon. */ if (!in_interrupt() && should_wake_ksoftirqd()) wakeup_softirqd();}

void __raise_softirq_irqoff(unsigned int nr){ lockdep_assert_irqs_disabled(); trace_softirq_raise(nr);

or_softirq_pending(1UL 《《 nr);}

所有軟中斷的處理函數都是在系統啟動的初始化函數里面用open_softirq接口設置的。raise_softirq一般是在硬中斷或者軟中斷中用來往軟中斷上push work使得軟中斷可以被觸發執行或者繼續執行。

5.4 微任務(tasklet)

新代碼要想使用softirq就必須修改內核的核心代碼,添加新的softirq類型,這對于很多驅動程序來說是做不到的,于是內核在softirq的基礎上開發了tasklet。使用tasklet不需要修改內核的核心代碼,驅動程序直接使用tasklet的接口就可以了。

Tasklet其實是一種特殊的softirq,它是在softirq的基礎上進行了擴展。它利用的就是softirq中的HI_SOFTIRQ和TASKLET_SOFTIRQ。softirq在初始化的時候會設置這兩個softirq類型。然后其處理函數會去處理tasklet的鏈表。我們在使用tasklet的時候只需要定義一個tasklet_struct,并用我們想要執行的函數初始化它,然后再用tasklet_schedule把它放入到隊列中,它就會被執行了。下面我們來看一下代碼:

linux-src/kernel/softirq.c

void __init softirq_init(void){ int cpu;

for_each_possible_cpu(cpu) { per_cpu(tasklet_vec, cpu).tail =

&per_cpu(tasklet_vec, cpu).head; per_cpu(tasklet_hi_vec, cpu).tail =

&per_cpu(tasklet_hi_vec, cpu).head; }

open_softirq(TASKLET_SOFTIRQ, tasklet_action); open_softirq(HI_SOFTIRQ, tasklet_hi_action);}

static __latent_entropy void tasklet_action(struct softirq_action *a){

tasklet_action_common(a, this_cpu_ptr(&tasklet_vec), TASKLET_SOFTIRQ);}

static __latent_entropy void tasklet_hi_action(struct softirq_action *a){

tasklet_action_common(a, this_cpu_ptr(&tasklet_hi_vec), HI_SOFTIRQ);}

static void tasklet_action_common(struct softirq_action *a,

struct tasklet_head *tl_head,

unsigned int softirq_nr){ struct tasklet_struct *list;

local_irq_disable(); list = tl_head-》head;

tl_head-》head = NULL; tl_head-》tail = &tl_head-》head; local_irq_enable();

while (list) { struct tasklet_struct *t = list;

list = list-》next;

if (tasklet_trylock(t)) {

if (!atomic_read(&t-》count)) {

if (tasklet_clear_sched(t)) {

if (t-》use_callback)

t-》callback(t);

else t-》func(t-》data);

} tasklet_unlock(t);

continue; }

tasklet_unlock(t); }

local_irq_disable();

t-》next = NULL; *tl_head-》tail = t;

tl_head-》tail = &t-》next;

__raise_softirq_irqoff(softirq_nr);

local_irq_enable(); }}

static DEFINE_PER_CPU(struct tasklet_head, tasklet_vec);static DEFINE_PER_CPU(struct tasklet_head, tasklet_hi_vec);

static void __tasklet_schedule_common(struct tasklet_struct *t,

struct tasklet_head __percpu *headp,

unsigned int softirq_nr){ struct tasklet_head *head; unsigned long flags;

local_irq_save(flags);

head = this_cpu_ptr(headp); t-》next = NULL; *head-》tail = t;

head-》tail = &(t-》next);

raise_softirq_irqoff(softirq_nr); local_irq_restore(flags);}

void __tasklet_schedule(struct tasklet_struct *t){ __tasklet_schedule_common(t, &tasklet_vec,

TASKLET_SOFTIRQ);}EXPORT_SYMBOL(__tasklet_schedule);

void __tasklet_hi_schedule(struct tasklet_struct *t){ __tasklet_schedule_common(t, &tasklet_hi_vec,

HI_SOFTIRQ);}EXPORT_SYMBOL(__tasklet_hi_schedule);

linux-src/include/linux/interrupt.h

static inline void tasklet_schedule(struct tasklet_struct *t){

if (!test_and_set_bit(TASKLET_STATE_SCHED, &t-》state))

__tasklet_schedule(t);}

static inline void tasklet_hi_schedule(struct tasklet_struct *t){

if (!test_and_set_bit(TASKLET_STATE_SCHED, &t-》state))

__tasklet_hi_schedule(t);}

Tasklet和softirq有一個很大的區別就是,同一個softirq可以在不同的CPU上并發執行,而同一個tasklet不會在多個CPU上并發執行。所以我們在編程的時候,如果使用的是tasklet就不用考慮多CPU之間的同步問題。

還有很重要的一點,tasklet不是獨立的,它是softirq的一部分,禁用軟中斷的同時也禁用了tasklet。

5.5 中斷線程(threaded_irq)

前面講的硬中斷,它是外設中斷處理中必不可少的一部分。Softirq和tasklet雖然不會禁用中斷,提高了系統對中斷的響應性,但是softirq的執行優先級還是比進程的優先級高,有些確實不那么重要的任務其實可以放到進程里執行,和普通進程共同競爭CPU。而且軟中斷里不能調用會阻塞、休眠的函數,這對軟中斷函數的編程是很不利的,所以綜合各種因素,我們需要把中斷處理任務中的與硬件無關有不太緊急的部分放到進程里面來做。為此內核開發了兩種方法,中斷線程和工作隊列。

我們這節先講中斷線程,其接口如下:

linux-src/include/linux/interrupt.h

extern int __must_checkrequest_threaded_irq(unsigned int irq, irq_handler_t handler, irq_handler_t thread_fn, unsigned long flags, const char *name, void *dev);

如果我們要為某個外設注冊中斷處理程序,可以使用這個接口。其中handler是硬中斷,是處理與硬件密切相關的事物。其處理完成后,可以把接收到的數據、要繼續處理的事情放到某個位置,然后返回是否需要喚醒對應的中斷線程。如果需要的話,系統會喚醒其對應的中斷線程來繼續處理任務,這個線程的主函數就是第三個參數thread_fn。下面我們來看一下這個接口的實現。

linux-src/kernel/irq/manage.c

int request_threaded_irq(unsigned int irq, irq_handler_t handler,

irq_handler_t thread_fn, unsigned long irqflags,

const char *devname, void *dev_id){ struct irqaction *action; struct irq_desc *desc; int retval;

if (irq == IRQ_NOTCONNECTED)

return -ENOTCONN;

/* * Sanity-check: shared interrupts must pass in a real dev-ID,

* otherwise we‘ll have trouble later trying to figure out

* which interrupt is which (messes up the interrupt freeing

* logic etc)。

* * Also shared interrupts do not go well with disabling auto enable.

* The sharing interrupt might request it while it’s still disabled

* and then wait for interrupts forever.

* * Also IRQF_COND_SUSPEND only makes sense for shared interrupts and

* it cannot be set along with IRQF_NO_SUSPEND.

*/ if (((irqflags & IRQF_SHARED) && !dev_id) ||

((irqflags & IRQF_SHARED) && (irqflags & IRQF_NO_AUTOEN)) ||

(!(irqflags & IRQF_SHARED) && (irqflags & IRQF_COND_SUSPEND)) ||

((irqflags & IRQF_NO_SUSPEND) && (irqflags & IRQF_COND_SUSPEND)))

return -EINVAL;

desc = irq_to_desc(irq); if (!desc)

return -EINVAL;

if (!irq_settings_can_request(desc) ||

WARN_ON(irq_settings_is_per_cpu_devid(desc)))

return -EINVAL;

if (!handler) {

if (!thread_fn)

return -EINVAL;

handler = irq_default_primary_handler;

}

action = kzalloc(sizeof(struct irqaction), GFP_KERNEL);

if (!action)

return -ENOMEM;

action-》handler = handler; action-》thread_fn = thread_fn;

action-》flags = irqflags; action-》name = devname;

action-》dev_id = dev_id;

retval = irq_chip_pm_get(&desc-》irq_data);

if (retval 《 0) {

kfree(action);

return retval; }

retval = __setup_irq(irq, desc, action);

if (retval) {

irq_chip_pm_put(&desc-》irq_data);

kfree(action-》secondary);

kfree(action); }

#ifdef CONFIG_DEBUG_SHIRQ_FIXME if (!retval && (irqflags & IRQF_SHARED)) {

/* * It‘s a shared IRQ -- the driver ought to be prepared for it

* to happen immediately, so let’s make sure.。..

* We disable the irq to make sure that a ‘real’ IRQ doesn‘t

* run in parallel with our fake.

*/ unsigned long flags;

disable_irq(irq);

local_irq_save(flags);

handler(irq, dev_id);

local_irq_restore(flags);

enable_irq(irq);

}#endif return retval;}

static int__setup_irq(unsigned int irq, struct irq_desc *desc,

struct irqaction *new){ struct irqaction *old, **old_ptr;

unsigned long flags, thread_mask = 0; int ret, nested, shared = 0;

if (!desc)

return -EINVAL;

if (desc-》irq_data.chip == &no_irq_chip)

return -ENOSYS; if (!try_module_get(desc-》owner))

return -ENODEV;

new-》irq = irq;

/* * If the trigger type is not specified by the caller,

* then use the default for this interrupt.

*/ if (!(new-》flags & IRQF_TRIGGER_MASK))

new-》flags |= irqd_get_trigger_type(&desc-》irq_data);

/* * Check whether the interrupt nests into another interrupt

* thread. */ nested = irq_settings_is_nested_thread(desc); if (nested) {

if (!new-》thread_fn) {

ret = -EINVAL;

goto out_mput; }

/* * Replace the primary handler which was provided from

* the driver for non nested interrupt handling by the

* dummy function which warns when called. */

new-》handler = irq_nested_primary_handler; } else {

if (irq_settings_can_thread(desc)) {

ret = irq_setup_forced_threading(new);

if (ret)

goto out_mput; } }

/* * Create a handler thread when a thread function is supplied

* and the interrupt does not nest into another interrupt

* thread.

*/ if (new-》thread_fn && !nested) {

ret = setup_irq_thread(new, irq, false);

if (ret)

goto out_mput;

if (new-》secondary) {

ret = setup_irq_thread(new-》secondary, irq, true);

if (ret)

goto out_thread;

} }

/* * Drivers are often written to work w/o knowledge about the

* underlying irq chip implementation, so a request for a

* threaded irq without a primary hard irq context handler

* requires the ONESHOT flag to be set. Some irq chips like

* MSI based interrupts are per se one shot safe. Check the

* chip flags, so we can avoid the unmask dance at the end of

* the threaded handler for those.

*/ if (desc-》irq_data.chip-》flags & IRQCHIP_ONESHOT_SAFE)

new-》flags &= ~IRQF_ONESHOT;

/* * Protects against a concurrent __free_irq() call which might wait

* for synchronize_hardirq() to complete without holding the optional

* chip bus lock and desc-》lock. Also protects against handing out

* a recycled oneshot thread_mask bit while it’s still in use by

* its previous owner.

*/ mutex_lock(&desc-》request_mutex);

/* * Acquire bus lock as the irq_request_resources() callback below

* might rely on the serialization or the magic power management

* functions which are abusing the irq_bus_lock() callback,

*/ chip_bus_lock(desc);

/* First installed action requests resources.

*/ if (!desc-》action) {

ret = irq_request_resources(desc);

if (ret) {

pr_err(“Failed to request resources for %s (irq %d) on irqchip %s

”, new-》name, irq, desc-》irq_data.chip-》name);

goto out_bus_unlock;

} }

/* * The following block of code has to be executed atomically

* protected against a concurrent interrupt and any of the other

* management calls which are not serialized via

* desc-》request_mutex or the optional bus lock.

*/ raw_spin_lock_irqsave(&desc-》lock, flags);

old_ptr = &desc-》action; old = *old_ptr; if (old) {

/* * Can‘t share interrupts unless both agree to and are

* the same type (level, edge, polarity)。 So both flag

* fields must have IRQF_SHARED set and the bits which

* set the trigger type must match. Also all must

* agree on ONESHOT.

* Interrupt lines used for NMIs cannot be shared.

*/ unsigned int oldtype;

if (desc-》istate & IRQS_NMI) {

pr_err(“Invalid attempt to share NMI for %s (irq %d) on irqchip %s.

”, new-》name, irq, desc-》irq_data.chip-》name);

ret = -EINVAL;

goto out_unlock; }

/* * If nobody did set the configuration before, inherit

* the one provided by the requester.

*/ if (irqd_trigger_type_was_set(&desc-》irq_data)) {

oldtype = irqd_get_trigger_type(&desc-》irq_data); } else {

oldtype = new-》flags & IRQF_TRIGGER_MASK;

irqd_set_trigger_type(&desc-》irq_data, oldtype);

}

if (!((old-》flags & new-》flags) & IRQF_SHARED) ||

(oldtype != (new-》flags & IRQF_TRIGGER_MASK)) ||

((old-》flags ^ new-》flags) & IRQF_ONESHOT))

goto mismatch;

/* All handlers must agree on per-cpuness */

if ((old-》flags & IRQF_PERCPU) !=

(new-》flags & IRQF_PERCPU))

goto mismatch;

/* add new interrupt at end of irq queue */

do {

/*

* Or all existing action-》thread_mask bits,

* so we can find the next zero bit for this

* new action. */

thread_mask |= old-》thread_mask;

old_ptr = &old-》next;

old = *old_ptr;

} while (old);

shared = 1; }

/* * Setup the thread mask for this irqaction for ONESHOT. For

* !ONESHOT irqs the thread mask is 0 so we can avoid a

* conditional in irq_wake_thread()。

*/ if (new-》flags & IRQF_ONESHOT) {

/* * Unlikely to have 32 resp 64 irqs sharing one line,

* but who knows. */ if (thread_mask == ~0UL) {

ret = -EBUSY; goto out_unlock; }

/* * The thread_mask for the action is or’ed to

* desc-》thread_active to indicate that the

* IRQF_ONESHOT thread handler has been woken, but not

* yet finished. The bit is cleared when a thread

* completes. When all threads of a shared interrupt

* line have completed desc-》threads_active becomes

* zero and the interrupt line is unmasked. See

* handle.c:irq_wake_thread() for further information. *

* If no thread is woken by primary (hard irq context)

* interrupt handlers, then desc-》threads_active is

* also checked for zero to unmask the irq line in the

* affected hard irq flow handlers

* (handle_[fasteoi|level]_irq)。

* * The new action gets the first zero bit of

* thread_mask assigned. See the loop above which or‘s

* all existing action-》thread_mask bits.

*/ new-》thread_mask = 1UL 《《 ffz(thread_mask);

} else if (new-》handler == irq_default_primary_handler &&

!(desc-》irq_data.chip-》flags & IRQCHIP_ONESHOT_SAFE)) {

/*

* The interrupt was requested with handler = NULL, so

* we use the default primary handler for it. But it

* does not have the oneshot flag set. In combination

* with level interrupts this is deadly, because the

* default primary handler just wakes the thread, then

* the irq lines is reenabled, but the device still

* has the level irq asserted. Rinse and repeat.。.. *

* While this works for edge type interrupts, we play

* it safe and reject unconditionally because we can’t

* say for sure which type this interrupt really

* has. The type flags are unreliable as the

* underlying chip implementation can override them.

*/ pr_err(“Threaded irq requested with handler=NULL and !ONESHOT for %s (irq %d)

”, new-》name, irq);

ret = -EINVAL;

goto out_unlock; }

if (!shared) {

init_waitqueue_head(&desc-》wait_for_threads);

/* Setup the type (level, edge polarity) if configured: */

if (new-》flags & IRQF_TRIGGER_MASK) {

ret = __irq_set_trigger(desc,

new-》flags & IRQF_TRIGGER_MASK);

if (ret)

goto out_unlock; }

/* * Activate the interrupt. That activation must happen

* independently of IRQ_NOAUTOEN. request_irq() can fail

* and the callers are supposed to handle

* that. enable_irq() of an interrupt requested with

* IRQ_NOAUTOEN is not supposed to fail. The activation

* keeps it in shutdown mode, it merily associates

* resources if necessary and if that‘s not possible it

* fails. Interrupts which are in managed shutdown mode

* will simply ignore that activation request.

*/ ret = irq_activate(desc);

if (ret)

goto out_unlock;

desc-》istate &= ~(IRQS_AUTODETECT | IRQS_SPURIOUS_DISABLED |

IRQS_ONESHOT | IRQS_WAITING);

irqd_clear(&desc-》irq_data, IRQD_IRQ_INPROGRESS);

if (new-》flags & IRQF_PERCPU) {

irqd_set(&desc-》irq_data, IRQD_PER_CPU);

irq_settings_set_per_cpu(desc);

if (new-》flags & IRQF_NO_DEBUG)

irq_settings_set_no_debug(desc); }

if (noirqdebug)

irq_settings_set_no_debug(desc);

if (new-》flags & IRQF_ONESHOT)

desc-》istate |= IRQS_ONESHOT;

/* Exclude IRQ from balancing if requested */

if (new-》flags & IRQF_NOBALANCING) {

irq_settings_set_no_balancing(desc);

irqd_set(&desc-》irq_data, IRQD_NO_BALANCING); }

if (!(new-》flags & IRQF_NO_AUTOEN) &&

irq_settings_can_autoenable(desc)) {

irq_startup(desc, IRQ_RESEND, IRQ_START_COND);

} else {

/*

* Shared interrupts do not go well with disabling

* auto enable. The sharing interrupt might request

* it while it’s still disabled and then wait for

* interrupts forever. */

WARN_ON_ONCE(new-》flags & IRQF_SHARED);

/* Undo nested disables: */

desc-》depth = 1; }

} else if (new-》flags & IRQF_TRIGGER_MASK) {

unsigned int nmsk = new-》flags & IRQF_TRIGGER_MASK;

unsigned int omsk = irqd_get_trigger_type(&desc-》irq_data);

if (nmsk != omsk)

/* hope the handler works with current trigger mode */

pr_warn(“irq %d uses trigger mode %u; requested %u

”, irq, omsk, nmsk); }

*old_ptr = new;

irq_pm_install_action(desc, new);

/* Reset broken irq detection when installing new handler */

desc-》irq_count = 0;

desc-》irqs_unhandled = 0;

/* * Check whether we disabled the irq via the spurious handler

* before. Reenable it and give it another chance.

*/ if (shared && (desc-》istate & IRQS_SPURIOUS_DISABLED)) {

desc-》istate &= ~IRQS_SPURIOUS_DISABLED;

__enable_irq(desc); }

raw_spin_unlock_irqrestore(&desc-》lock, flags);

chip_bus_sync_unlock(desc); mutex_unlock(&desc-》request_mutex);

irq_setup_timings(desc, new);

/* * Strictly no need to wake it up, but hung_task complains

* when no hard interrupt wakes the thread up.

*/ if (new-》thread)

wake_up_process(new-》thread);

if (new-》secondary)

wake_up_process(new-》secondary-》thread);

register_irq_proc(irq, desc); new-》dir = NULL; register_handler_proc(irq, new); return 0;

mismatch: if (!(new-》flags & IRQF_PROBE_SHARED)) {

pr_err(“Flags mismatch irq %d. %08x (%s) vs. %08x (%s)

”, irq, new-》flags, new-》name, old-》flags, old-》name);#ifdef CONFIG_DEBUG_SHIRQ

dump_stack();#endif } ret = -EBUSY;

out_unlock: raw_spin_unlock_irqrestore(&desc-》lock, flags);

if (!desc-》action) irq_release_resources(desc);out_bus_unlock:

chip_bus_sync_unlock(desc); mutex_unlock(&desc-》request_mutex);

out_thread: if (new-》thread) { struct task_struct *t = new-》thread;

new-》thread = NULL; kthread_stop(t); put_task_struct(t);

} if (new-》secondary && new-》secondary-》thread) {

struct task_struct *t = new-》secondary-》thread;

new-》secondary-》thread = NULL; kthread_stop(t);

put_task_struct(t); }out_mput: module_put(desc-》owner); return ret;}

static intsetup_irq_thread(struct irqaction *new, unsigned int irq, bool secondary){ struct task_struct *t;

if (!secondary) { t = kthread_create(irq_thread, new, “irq/%d-%s”, irq,

new-》name); } else {

t = kthread_create(irq_thread, new, “irq/%d-s-%s”, irq,

new-》name); }

if (IS_ERR(t)) return PTR_ERR(t);

sched_set_fifo(t);

/* * We keep the reference to the task struct even if

* the thread dies to avoid that the interrupt code

* references an already freed task_struct.

*/ new-》thread = get_task_struct(t);

/* * Tell the thread to set its affinity. This is

* important for shared interrupt handlers as we do

* not invoke setup_affinity() for the secondary

* handlers as everything is already set up. Even for

* interrupts marked with IRQF_NO_BALANCE this is

* correct as we want the thread to move to the cpu(s)

* on which the requesting code placed the interrupt.

*/ set_bit(IRQTF_AFFINITY, &new-》thread_flags); return 0;}

中斷線程雖然實現很復雜,但是其使用接口還是很簡單的。

5.6 工作隊列(workqueue)

工作隊列是內核中使用最廣泛的線程化中斷處理機制。系統中有一些默認的工作隊列,你也可以創建自己的工作隊列,工作隊列背后對應的是內核線程。你可以創建一個work,然后push到某個工作隊列,然后這個工作隊列背后的內核線程就會去執行這些work。下面我們來看一下工作隊列的接口。

linux-src/include/linux/workqueue.h

struct work_struct { atomic_long_t data;

struct list_head entry;

work_func_t func;#ifdef CONFIG_LOCKDEP struct lockdep_map lockdep_map;#endif};

#define DECLARE_WORK(n, f)

struct work_struct n = __WORK_INITIALIZER(n, f)

#define __WORK_INITIALIZER(n, f) {

.data = WORK_DATA_STATIC_INIT(),

.entry = { &(n).entry, &(n).entry },

.func = (f),

__WORK_INIT_LOCKDEP_MAP(#n, &(n))

}

static inline bool schedule_work(struct work_struct *work){ return queue_work(system_wq, work);}

static inline bool schedule_work_on(int cpu, struct work_struct *work){ return queue_work_on(cpu, system_wq, work);}

這是創建work,把work push到系統默認的工作隊列上的接口,下面我們再來看一下創建自己的工作隊列的接口:

linux-src/include/linux/workqueue.h

struct workqueue_struct *alloc_workqueue(const char *fmt, unsigned int flags, int max_active, 。..);

#define create_workqueue(name)

alloc_workqueue(“%s”, __WQ_LEGACY | WQ_MEM_RECLAIM, 1, (name))

工作隊列還有很多很豐富的接口,這里就不一一介紹了。

關于工作隊列的實現原理,推薦閱讀:

http://www.wowotech.net/irq_subsystem/workqueue.html

http://www.wowotech.net/irq_subsystem/cmwq-intro.html

http://www.wowotech.net/irq_subsystem/alloc_workqueue.html

http://www.wowotech.net/irq_subsystem/queue_and_handle_work.html

六、中斷與同步

在只有線程的情況下,線程之間的同步邏輯還是很好理解的,但是有了中斷之后,硬中斷、軟中斷、線程相互之間的同步就變得復雜起來。下面我們就來看一下它們在運行的時候相互之間的搶占關系。

6.1 CPU運行模型

首先我們來看一下CPU最原始的運行模型,圖靈機模型,非常簡單,就是一條直線一直運行下去。

在圖靈機上加入中斷之后,CPU的運行模型也是比較簡單的。但是當我們考慮軟件中斷、硬件中斷的區別時,CPU運行模型就開始變得復雜起來了。

不同的中斷類型使得中斷執行流有了不同的類型,這里一共分為三種類型,系統調用、CPU異常、硬件中斷。現在這個還不算復雜,下面我們看一下它們之間的搶占情形。

在系統調用時會發生CPU異常,也可能會發生硬件中斷,在CPU異常的時候也可能發生硬件中斷。其實這三者也可以嵌套起來,請看下圖:

系統調用時發生了CPU異常,CPU異常時發生了硬件中斷。下面我們把硬件中斷的處理過程分為硬中斷和軟中斷兩部分,看看它們之間的關系。

硬件中斷的前半部分是硬中斷,后半部分是軟中斷,硬中斷中不能再嵌套硬中斷了,但是軟中斷中可以嵌套硬中斷。不過嵌套的硬中斷在返回時發現正在執行軟中斷,就不會再重新還行軟中斷了,而是會回到原來的軟中斷執行流中。軟中斷的執行還有一種情況,如下圖所示:

這是因為線程在其臨界區中禁用了軟中斷,如果臨界區中發生了硬中斷還是會執行的,但是硬中斷返回時不會去執行軟中斷,因為軟中斷被禁用了。當線程的臨界區結束是會再打開軟中斷,此時發現有pending的軟中斷沒有處理,就會去執行軟中斷。

還有一種比較特殊的情況,就是線程里套軟中斷,軟中斷里套硬中斷,硬中斷里套NMI中斷,如下圖所示:

首先軟中斷是不能獨立觸發的,必須是硬中斷觸發軟中斷。在圖中,第一個硬中斷是執行完成了的,然后在軟中斷的執行過程中又發生了硬中斷,第二個硬中斷還沒執行完的時候在執行過程中的時候又發生了NMI中斷。這樣就發生了四個不同等級的執行流一一嵌套的情況,這也是隊列自旋鎖的鎖節點為啥要乘以4的原因。

6.2 中斷相關同步方法

軟中斷可以搶占線程,硬中斷可以搶占軟中斷也可以搶占線程,而返回來則不能搶占,所以如果我們的低等級執行流代碼和高等級執行流代碼有同步問題的話,就要考慮禁用高等級執行流。下面我們來看一下它們的接口,首先看禁用硬中斷:

linux-src/include/linux/irqflags.h

#define local_irq_enable()

do { raw_local_irq_enable(); } while (0)#define local_irq_disable()

do { raw_local_irq_disable(); } while (0)#define local_irq_save(flags)

do { raw_local_irq_save(flags);

} while (0)#define local_irq_restore(flags)

do { raw_local_irq_restore(flags);

} while (0)

linux-src/include/linux/interrupt.h

extern void disable_irq_nosync(unsigned int irq);extern bool disable_hardirq(unsigned int irq);

extern void disable_irq(unsigned int irq);extern void disable_percpu_irq(unsigned int irq);

extern void enable_irq(unsigned int irq);extern void enable_percpu_irq(unsigned

int

irq,

unsigned int type);

你可以在一個CPU上禁用所有中斷,也可以在所有CPU上禁用某個硬件中斷,但是你不能在所有CPU上同時禁用所有硬件中斷。

再來看一下禁用軟中斷的接口:

linux-src/include/linux/bottom_half.h

static inline void local_bh_disable(void){ __local_bh_disable_ip(_THIS_IP_, SOFTIRQ_DISABLE_OFFSET);}

static inline void local_bh_enable(void){ __local_bh_enable_ip(_THIS_IP_, SOFTIRQ_DISABLE_OFFSET);}

我們只能禁用本地CPU的軟中斷,而且是整體禁用,不能只禁用某一類型的軟中斷。雖然在Linux中,下半部bh包括所有的下半部,但是此處的bh僅僅指軟中斷(包括tasklet),不包括中斷線程和工作隊列。

七、總結回顧

本文我們從中斷的概念開始講起,一路上分析了中斷的作用、中斷的產生、中斷的處理。其中內容最多的是硬件中斷的處理,方法很多很繁雜。從6.1節CPU運行模型中,我們可以看到中斷對于推動整個系統運行的重要性。所以說中斷機制是計算機系統的神經和脈搏,一點都不為過。想要學會Linux內核,弄明白中斷機制是其中必不可少的一環。最后我們再來看一下中斷機制的圖:

參考文獻:

《Linux Kernel Development》

《Understanding the Linux Kernel》

《Professional Linux Kernel Architecture》

《Intel 64 and IA-32 Architectures Software Developer’s Manual Volume 3》

《Interrupt in Linux (硬件篇)》

編輯:黃飛

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10863

    瀏覽量

    211786
  • Linux
    +關注

    關注

    87

    文章

    11304

    瀏覽量

    209524

原文標題:深入理解Linux中斷機制

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    多方位對比ARM和x86 CPU兩大架構現在發展如何?

    隨便逮住一個人問他知不知道CPU,我想他的答案一定會是肯定的,但是如果你再問他知道ARM和X86架構么?這兩者的區別又是什么?絕大多數的人肯定是一臉懵逼。今天小編就帶你深入了解CPU
    發表于 05-30 14:14 ?2593次閱讀

    深入了解CPU兩大架構ARM與X86

    ARM和X86現在發展如何?關于X86架構和ARM架構這兩者誰將統一市場的爭執一直都有,但是也有人說這兩者根本不具備可比性,X86無法做到A
    發表于 05-30 15:20 ?1.8w次閱讀

    x86自主新架構呼之欲出!國產CPU性能或大幅提升

    的保障。 ? 圖源:兆芯 作為國內x86?CPU的代表,兆芯也是全球除了英特爾、AMD外,唯一能夠制造x86架構CPU企業。如果說龍芯是國
    的頭像 發表于 01-10 07:18 ?7337次閱讀

    Powerpc架構X86架構的區別

    目錄1、ARM1.1 ARM歷史1.2 ARM內核系列2、MIPS應用范圍發展歷史3、PowerPC三巨頭4、X86架構X86歷史5、PowerPC架構相比于ARM的優勢6、Power
    發表于 07-26 06:16

    為什么x86和arm的架構不同,但是都能裝linux呢?

    為什么x86和arm的架構不同,但是都能裝linux呢?他們的編譯時如何實現的?
    發表于 05-16 10:21

    探秘X86架構CPU流水線

    探秘X86架構CPU流水線
    發表于 01-14 12:19 ?25次下載

    x86 cpu詳細介紹 x86 cpu遵循原則與生產廠家

    雖然隨著CPU技術的不斷發展,Intel陸續研制出更新型的i80386、i80486直到今天的Pentium Ⅲ(以下簡為PⅢ)系列,但為了保證電腦能繼續運行以往開發的各類應用程序保護和繼承豐富的軟件資源,所以Intel公司所生產的所有
    發表于 01-31 13:59 ?3559次閱讀

    X86架構無可取代 業界地位無法撼動

    X86架構已經問世41年了,當年它還只是眾多CPU架構中的一種,但是被IBM選擇為兼容PC的處理器之后,X86這么多年來已經確定了它在業界的
    發表于 12-13 10:19 ?1944次閱讀

    CPU架構大戰未曾停歇,x86、Arm、RISC-V開始互占地盤

    x86進入Arm專長領域,則以2014年華碩ASUS推出ZenPhone手機為指標。ZenPhone使用x86架構的Atom Z系列CPU
    發表于 09-28 10:43 ?2084次閱讀

    CPU架構x86、RISC-V、ARM的區別和特點

    x86架構的指令集相對于RISC(精簡指令集計算機)架構而言更為復雜。這意味著x86架構CPU
    發表于 04-03 10:21 ?1.3w次閱讀

    X86架構與Arm架構的區別

    X86架構和ARM架構是主流的兩種CPU架構X86架構
    的頭像 發表于 06-16 12:50 ?2.5w次閱讀
    <b class='flag-5'>X86</b><b class='flag-5'>架構</b>與Arm<b class='flag-5'>架構</b>的區別

    CPU架構X86和ARM的區別

    隨著科技的快速發展,計算機技術已經深入到我們生活的方方面面。作為計算機的核心部件,CPU(中央處理器)的性能和架構對于整個系統的運行起著至關重要的作用。目前,市場上主流的 CPU 架構
    發表于 09-18 10:02 ?2769次閱讀

    X86架構與ARM架構的主要區別

    X86和ARM是兩種主要的CPU架構X86架構CPU是PC服務器行業的老大,而ARM
    的頭像 發表于 09-22 08:23 ?8417次閱讀
    <b class='flag-5'>X86</b><b class='flag-5'>架構</b>與ARM<b class='flag-5'>架構</b>的主要區別

    x86與arm架構區別主板還是cpu

    x86和ARM架構是計算機處理器的兩種不同體系結構,涉及到CPU和主板兩方面的區別。下面將詳細介紹它們的特點和區別。 首先,我們需要先了解x86和ARM是什么。
    的頭像 發表于 12-21 17:08 ?2417次閱讀

    arm架構x86架構區別 linuxx86還是arm

    ARM架構x86架構是兩種不同的計算機處理器架構,它們在體系結構、指令集、應用領域等方面有著明顯的區別。Linux操作系統則具有廣泛的適配
    的頭像 發表于 01-30 13:46 ?1.8w次閱讀
    主站蜘蛛池模板: 狠狠色丁香久久婷婷综合丁香| 一级特黄aaa大片在| 五月天亚洲综合| 男啪女视频免费观看网站| 亚洲第成色999久久网站| 美日韩中文字幕| 人人玩人人添天天爽| 男女视频在线观看免费| 欧美成人免费全部观看天天性色| 91寡妇天天综合久久影院| 欧美性猛交xxxx乱大交高清| 校园 春色 欧美 另类 小说| 国产色婷婷精品综合在线观看| 国产亚洲情侣久久精品| 一级欧美一级日韩| 国产视频一二区| 91福利网winktv| 深爱激情婷婷| 午夜免费片在线观看不卡| 亚州一级毛片在线| 免费看美女的逼| 免费jlzzjlzz在线播放视频| 俄罗斯久久| 国产成在线人视频免费视频| 69japanese日本100| 四虎影库在线播放| 天天色狠狠干| 99热精品一区| 被啪漫画羞羞漫画| 黄色888| 国内精品久久久久影院免费| 亚洲成人三级| 在线观看一级片| 久热99| 风流护士| 亚洲视频在线观看一区| 免费a在线看| 777影院| 欧美午夜大片| 国产精品久久久久影院免费| 四虎www.|