傳統(tǒng)的 System Call I/O
在 Linux 系統(tǒng)中,傳統(tǒng)的訪問(wèn)方式是通過(guò) write() 和 read() 兩個(gè)系統(tǒng)調(diào)用實(shí)現(xiàn)的,通過(guò) read() 函數(shù)讀取文件到到緩存區(qū)中,然后通過(guò) write() 方法把緩存中的數(shù)據(jù)輸出到網(wǎng)絡(luò)端口。
read(file_fd, tmp_buf, len);
write(socket_fd, tmp_buf, len);
下圖分別對(duì)應(yīng)傳統(tǒng) I/O 操作的數(shù)據(jù)讀寫(xiě)流程,整個(gè)過(guò)程涉及 2 次 CPU 拷貝、2 次 DMA 拷貝,總共 4 次拷貝,以及 4 次上下文切換。
-
CPU 拷貝:
由 CPU 直接處理數(shù)據(jù)的傳送,數(shù)據(jù)拷貝時(shí)會(huì)一直占用 CPU 的資源。
-
DMA 拷貝:
由 CPU 向DMA磁盤(pán)控制器下達(dá)指令,讓 DMA 控制器來(lái)處理數(shù)據(jù)的傳送,數(shù)據(jù)傳送完畢再把信息反饋給 CPU,從而減輕了 CPU 資源的占有率。
-
上下文切換:
當(dāng)用戶(hù)程序向內(nèi)核發(fā)起系統(tǒng)調(diào)用時(shí),CPU 將用戶(hù)進(jìn)程從用戶(hù)態(tài)切換到內(nèi)核態(tài);
當(dāng)系統(tǒng)調(diào)用返回時(shí),CPU 將用戶(hù)進(jìn)程從內(nèi)核態(tài)切換回用戶(hù)態(tài)。
讀操作
當(dāng)應(yīng)用程序執(zhí)行 read 系統(tǒng)調(diào)用讀取一塊數(shù)據(jù)的時(shí)候,如果這塊數(shù)據(jù)已經(jīng)存在于用戶(hù)進(jìn)程的頁(yè)內(nèi)存中,就直接從內(nèi)存中讀取數(shù)據(jù)。
如果數(shù)據(jù)不存在,則先將數(shù)據(jù)從磁盤(pán)加載數(shù)據(jù)到內(nèi)核空間的讀緩存(Read Buffer)中,再?gòu)淖x緩存拷貝到用戶(hù)進(jìn)程的頁(yè)內(nèi)存中。
read(file_fd, tmp_buf, len);
基于傳統(tǒng)的 I/O 讀取方式,read 系統(tǒng)調(diào)用會(huì)觸發(fā) 2 次上下文切換,1 次 DMA 拷貝和 1 次 CPU 拷貝。
發(fā)起數(shù)據(jù)讀取的流程如下:
-
用戶(hù)進(jìn)程通過(guò) read() 函數(shù)向 Kernel 發(fā)起 System Call,上下文從 user space 切換為 kernel space。
-
CPU 利用 DMA 控制器將數(shù)據(jù)從主存或硬盤(pán)拷貝到 kernel space 的讀緩沖區(qū)(Read Buffer)。
-
CPU 將讀緩沖區(qū)(Read Buffer)中的數(shù)據(jù)拷貝到 user space 的用戶(hù)緩沖區(qū)(User Buffer)。
-
上下文從 kernel space 切換回用戶(hù)態(tài)(User Space),read 調(diào)用執(zhí)行返回。
寫(xiě)操作
當(dāng)應(yīng)用程序準(zhǔn)備好數(shù)據(jù),執(zhí)行 write 系統(tǒng)調(diào)用發(fā)送網(wǎng)絡(luò)數(shù)據(jù)時(shí),先將數(shù)據(jù)從用戶(hù)空間的頁(yè)緩存拷貝到內(nèi)核空間的網(wǎng)絡(luò)緩沖區(qū)(Socket Buffer)中,然后再將寫(xiě)緩存中的數(shù)據(jù)拷貝到網(wǎng)卡設(shè)備完成數(shù)據(jù)發(fā)送。
write(socket_fd, tmp_buf, len);
基于傳統(tǒng)的 I/O 寫(xiě)入方式,write() 系統(tǒng)調(diào)用會(huì)觸發(fā) 2 次上下文切換,1 次 CPU 拷貝和 1 次 DMA 拷貝。
用戶(hù)程序發(fā)送網(wǎng)絡(luò)數(shù)據(jù)的流程如下:
-
用戶(hù)進(jìn)程通過(guò) write() 函數(shù)向 kernel 發(fā)起 System Call,上下文從 user space 切換為 kernel space。
-
CPU 將用戶(hù)緩沖區(qū)(User Buffer)中的數(shù)據(jù)拷貝到 kernel space 的網(wǎng)絡(luò)緩沖區(qū)(Socket Buffer)。
-
CPU 利用 DMA 控制器將數(shù)據(jù)從網(wǎng)絡(luò)緩沖區(qū)(Socket Buffer)拷貝到 NIC 進(jìn)行數(shù)據(jù)傳輸。
-
上下文從 kernel space 切換回 user space,write 系統(tǒng)調(diào)用執(zhí)行返回。
網(wǎng)絡(luò) I/O
磁盤(pán) I/O
高性能優(yōu)化的 I/O
-
零拷貝技術(shù)。
-
多路復(fù)用技術(shù)。
-
頁(yè)緩存(PageCache)技術(shù)。
其中,頁(yè)緩存(PageCache) 是操作系統(tǒng)對(duì)文件的緩存,用來(lái)減少對(duì)磁盤(pán)的 I/O 操作,以頁(yè)為單位的,內(nèi)容就是磁盤(pán)上的物理塊,頁(yè)緩存能幫助程序?qū)ξ募M(jìn)行順序讀寫(xiě)的速度幾乎接近于內(nèi)存的讀寫(xiě)速度,主要原因就是由于 OS 使用 PageCache 機(jī)制對(duì)讀寫(xiě)訪問(wèn)操作進(jìn)行了性能優(yōu)化。
頁(yè)緩存讀取策略:當(dāng)進(jìn)程發(fā)起一個(gè)讀操作 (比如,進(jìn)程發(fā)起一個(gè) read() 系統(tǒng)調(diào)用),它首先會(huì)檢查需要的數(shù)據(jù)是否在頁(yè)緩存中:
-
如果在,則放棄訪問(wèn)磁盤(pán),而直接從頁(yè)緩存中讀取。
-
如果不在,則內(nèi)核調(diào)度塊 I/O 操作從磁盤(pán)去讀取數(shù)據(jù),并讀入緊隨其后的少數(shù)幾個(gè)頁(yè)面(不少于一個(gè)頁(yè)面,通常是三個(gè)頁(yè)面),然后將數(shù)據(jù)放入頁(yè)緩存中。
頁(yè)緩存寫(xiě)策略:當(dāng)進(jìn)程發(fā)起 write 系統(tǒng)調(diào)用寫(xiě)數(shù)據(jù)到文件中,先寫(xiě)到頁(yè)緩存,然后方法返回。此時(shí)數(shù)據(jù)還沒(méi)有真正的保存到文件中去,Linux 僅僅將頁(yè)緩存中的這一頁(yè)數(shù)據(jù)標(biāo)記為 “臟”,并且被加入到臟頁(yè)鏈表中。
然后,由 flusher 回寫(xiě)線程周期性將臟頁(yè)鏈表中的頁(yè)寫(xiě)到磁盤(pán),讓磁盤(pán)中的數(shù)據(jù)和內(nèi)存中保持一致,最后清理“臟”標(biāo)識(shí)。在以下三種情況下,臟頁(yè)會(huì)被寫(xiě)回磁盤(pán):
-
空閑內(nèi)存低于一個(gè)特定閾值。
-
臟頁(yè)在內(nèi)存中駐留超過(guò)一個(gè)特定的閾值時(shí)。
-
當(dāng)用戶(hù)進(jìn)程調(diào)用 sync() 和 fsync() 系統(tǒng)調(diào)用時(shí)。
存儲(chǔ)設(shè)備的 I/O 棧
由圖可見(jiàn),從系統(tǒng)調(diào)用的接口再往下,Linux 下的 IO 棧致大致有三個(gè)層次:
-
文件系統(tǒng)層,以 write 為例,內(nèi)核拷貝了 write 參數(shù)指定的用戶(hù)態(tài)數(shù)據(jù)到文件系統(tǒng) Cache 中,并適時(shí)向下層同步。
-
塊層,管理塊設(shè)備的 IO 隊(duì)列,對(duì) IO 請(qǐng)求進(jìn)行合并、排序(還記得操作系統(tǒng)課程學(xué)習(xí)過(guò)的 IO 調(diào)度算法嗎?)。
-
設(shè)備層,通過(guò) DMA 與內(nèi)存直接交互,完成數(shù)據(jù)和具體設(shè)備之間的交互。
結(jié)合這個(gè)圖,想想 Linux 系統(tǒng)編程里用到的 Buffered IO、mmap、Direct IO,這些機(jī)制怎么和 Linux I/O 棧聯(lián)系起來(lái)呢?上面的圖有點(diǎn)復(fù)雜,我畫(huà)一幅簡(jiǎn)圖,把這些機(jī)制所在的位置添加進(jìn)去:
Linux IO系統(tǒng)
這下一目了然了吧?傳統(tǒng)的 Buffered IO 使用 read 讀取文件的過(guò)程什么樣的?假設(shè)要去讀一個(gè)冷文件(Cache 中不存在),open 打開(kāi)文件內(nèi)核后建立了一系列的數(shù)據(jù)結(jié)構(gòu),接下來(lái)調(diào)用 read,到達(dá)文件系統(tǒng)這一層,發(fā)現(xiàn) Page Cache 中不存在該位置的磁盤(pán)映射,然后創(chuàng)建相應(yīng)的 Page Cache 并和相關(guān)的扇區(qū)關(guān)聯(lián)。
然后請(qǐng)求繼續(xù)到達(dá)塊設(shè)備層,在 IO 隊(duì)列里排隊(duì),接受一系列的調(diào)度后到達(dá)設(shè)備驅(qū)動(dòng)層,此時(shí)一般使用 DMA 方式讀取相應(yīng)的磁盤(pán)扇區(qū)到 Cache 中,然后 read 拷貝數(shù)據(jù)到用戶(hù)提供的用戶(hù)態(tài) buffer 中去(read 的參數(shù)指出的)。
整個(gè)過(guò)程有幾次拷貝? 從磁盤(pán)到 Page Cache 算第一次的話,從 Page Cache 到用戶(hù)態(tài) buffer 就是第二次了。而 mmap 做了什么?mmap 直接把 Page Cache 映射到了用戶(hù)態(tài)的地址空間里了,所以 mmap 的方式讀文件是沒(méi)有第二次拷貝過(guò)程的。
那 Direct IO 做了什么? 這個(gè)機(jī)制更狠,直接讓用戶(hù)態(tài)和塊 IO 層對(duì)接,直接放棄 Page Cache,從磁盤(pán)直接和用戶(hù)態(tài)拷貝數(shù)據(jù)。好處是什么?寫(xiě)操作直接映射進(jìn)程的buffer到磁盤(pán)扇區(qū),以 DMA 的方式傳輸數(shù)據(jù),減少了原本需要到 Page Cache 層的一次拷貝,提升了寫(xiě)的效率。
對(duì)于讀而言,第一次肯定也是快于傳統(tǒng)的方式的,但是之后的讀就不如傳統(tǒng)方式了(當(dāng)然也可以在用戶(hù)態(tài)自己做 Cache,有些商用數(shù)據(jù)庫(kù)就是這么做的)。
除了傳統(tǒng)的 Buffered IO 可以比較自由的用偏移 長(zhǎng)度的方式讀寫(xiě)文件之外,mmap 和 Direct IO 均有數(shù)據(jù)按頁(yè)對(duì)齊的要求,Direct IO 還限制讀寫(xiě)必須是底層存儲(chǔ)設(shè)備塊大小的整數(shù)倍(甚至 Linux 2.4 還要求是文件系統(tǒng)邏輯塊的整數(shù)倍)。
所以接口越來(lái)越底層,換來(lái)表面上的效率提升的背后,需要在應(yīng)用程序這一層做更多的事情。所以想用好這些高級(jí)特性,除了深刻理解其背后的機(jī)制之外,也要在系統(tǒng)設(shè)計(jì)上下一番功夫。
I/O Buffering
如圖,當(dāng)程序調(diào)用各類(lèi)文件操作函數(shù)后,用戶(hù)數(shù)據(jù)(User Data)到達(dá)磁盤(pán)(Disk)的流程如圖所示。
圖中描述了 Linux 下文件操作函數(shù)的層級(jí)關(guān)系和內(nèi)存緩存層的存在位置。中間的黑色實(shí)線是用戶(hù)態(tài)和內(nèi)核態(tài)的分界線。
從上往下分析這張圖:
1. 首先是 C 語(yǔ)言 stdio 庫(kù)定義的相關(guān)文件操作函數(shù),這些都是用戶(hù)態(tài)實(shí)現(xiàn)的跨平臺(tái)封裝函數(shù)。stdio 中實(shí)現(xiàn)的文件操作函數(shù)有自己的 stdio buffer,這是在用戶(hù)態(tài)實(shí)現(xiàn)的緩存。此處使用緩存的原因很簡(jiǎn)單 — 系統(tǒng)調(diào)用總是昂貴的。如果用戶(hù)代碼以較小的 size 不斷的讀或?qū)懳募脑挘瑂tdio 庫(kù)將多次的讀或者寫(xiě)操作通過(guò) buffer 進(jìn)行聚合是可以提高程序運(yùn)行效率的。
stdio 庫(kù)同時(shí)也支持 fflush 函數(shù)來(lái)主動(dòng)的刷新 buffer,主動(dòng)的調(diào)用底層的系統(tǒng)調(diào)用立即更新 buffer 里的數(shù)據(jù)。特別地,setbuf 函數(shù)可以對(duì) stdio 庫(kù)的用戶(hù)態(tài) buffer 進(jìn)行設(shè)置,甚至取消 buffer 的使用。
2. 系統(tǒng)調(diào)用的 read/write 和真實(shí)的磁盤(pán)讀寫(xiě)之間也存在一層 buffer,這里用術(shù)語(yǔ) Kernel buffer cache 來(lái)指代這一層緩存。在 Linux 下,文件的緩存習(xí)慣性的稱(chēng)之為 Page Cache,而更低一級(jí)的設(shè)備的緩存稱(chēng)之為 Buffer Cache。
這兩個(gè)概念很容易混淆,這里簡(jiǎn)單的介紹下概念上的區(qū)別:Page Cache 用于緩存文件的內(nèi)容,和文件系統(tǒng)比較相關(guān)。文件的內(nèi)容需要映射到實(shí)際的物理磁盤(pán),這種映射關(guān)系由文件系統(tǒng)來(lái)完成;Buffer Cache 用于緩存存儲(chǔ)設(shè)備塊(比如磁盤(pán)扇區(qū))的數(shù)據(jù),而不關(guān)心是否有文件系統(tǒng)的存在(文件系統(tǒng)的元數(shù)據(jù)緩存在 Buffer Cache 中)。
作者:范桂颶 整理:極客重生
https://is-cloud.blog.csdn.net/article/details/105897963
- EOF -
本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。