當前位置:首頁 > 公眾號精選 > 小林coding
[導讀]大家好,我是小林。我在之前的圖解系統寫過LinuxI/O的文章,但是沒有集中在一起講。今天就跟大家分享一篇,LinuxI/O系統。目錄傳統的SystemCallI/O??讀操作??寫操作??網絡I/O??磁盤I/O高性能優(yōu)化的I/O存儲設備的I/O棧I/OBuffering???...

大家好,我是小林。 我在之前的圖解系統寫過 Linux I/O 的文章,但是沒有集中在一起講。 今天就跟大家分享一篇, Linux I/O 系統。 目錄 傳統的 System Call I/O 讀操作 寫操作 網絡 I/O 磁盤 I/O 高性能優(yōu)化的 I/O 存儲設備的 I/O 棧 I/O Buffering

傳統的 System Call I/O

在 Linux 系統中,傳統的訪問方式是通過 write() 和 read() 兩個系統調用實現的,通過 read() 函數讀取文件到到緩存區(qū)中,然后通過 write() 方法把緩存中的數據輸出到網絡端口。
read(file_fd, tmp_buf, len);write(socket_fd, tmp_buf, len); 下圖分別對應傳統 I/O 操作的數據讀寫流程,整個過程涉及 2 次 CPU 拷貝、2 次 DMA 拷貝,總共 4 次拷貝,以及 4 次上下文切換。
  • CPU 拷貝: 由 CPU 直接處理數據的傳送,數據拷貝時會一直占用 CPU 的資源。
  • DMA 拷貝: 由 CPU 向DMA磁盤控制器下達指令,讓 DMA 控制器來處理數據的傳送,數據傳送完畢再把信息反饋給 CPU,從而減輕了 CPU 資源的占有率。
  • 上下文切換: 當用戶程序向內核發(fā)起系統調用時,CPU 將用戶進程從用戶態(tài)切換到內核態(tài); 當系統調用返回時,CPU 將用戶進程從內核態(tài)切換回用戶態(tài)。

讀操作

當應用程序執(zhí)行 read 系統調用讀取一塊數據的時候,如果這塊數據已經存在于用戶進程的頁內存中,就直接從內存中讀取數據。 如果數據不存在,則先將數據從磁盤加載數據到內核空間的讀緩存(Read Buffer)中,再從讀緩存拷貝到用戶進程的頁內存中。 read(file_fd, tmp_buf, len); 基于傳統的 I/O 讀取方式,read 系統調用會觸發(fā) 2 次上下文切換,1 次 DMA 拷貝和 1 次 CPU 拷貝。 發(fā)起數據讀取的流程如下:
  1. 用戶進程通過 read() 函數向 Kernel 發(fā)起 System Call,上下文從 user space 切換為 kernel space。
  2. CPU 利用 DMA 控制器將數據從主存或硬盤拷貝到 kernel space 的讀緩沖區(qū)(Read Buffer)。
  3. CPU 將讀緩沖區(qū)(Read Buffer)中的數據拷貝到 user space 的用戶緩沖區(qū)(User Buffer)。
  4. 上下文從 kernel space 切換回用戶態(tài)(User Space),read 調用執(zhí)行返回。

寫操作

當應用程序準備好數據,執(zhí)行 write 系統調用發(fā)送網絡數據時,先將數據從用戶空間的頁緩存拷貝到內核空間的網絡緩沖區(qū)(Socket Buffer)中,然后再將寫緩存中的數據拷貝到網卡設備完成數據發(fā)送。 write(socket_fd, tmp_buf, len); 基于傳統的 I/O 寫入方式,write() 系統調用會觸發(fā) 2 次上下文切換,1 次 CPU 拷貝和 1 次 DMA 拷貝。 用戶程序發(fā)送網絡數據的流程如下:
  1. 用戶進程通過 write() 函數向 kernel 發(fā)起 System Call,上下文從 user space 切換為 kernel space。
  2. CPU 將用戶緩沖區(qū)(User Buffer)中的數據拷貝到 kernel space 的網絡緩沖區(qū)(Socket Buffer)。
  3. CPU 利用 DMA 控制器將數據從網絡緩沖區(qū)(Socket Buffer)拷貝到 NIC 進行數據傳輸。
  4. 上下文從 kernel space 切換回 user space,write 系統調用執(zhí)行返回。

網絡 I/O

磁盤 I/O

高性能優(yōu)化的 I/O

  1. 零拷貝技術。
  2. 多路復用技術。
  3. 頁緩存(PageCache)技術。
其中,頁緩存(PageCache)是操作系統對文件的緩存,用來減少對磁盤的 I/O 操作,以頁為單位的,內容就是磁盤上的物理塊,頁緩存能幫助程序對文件進行順序讀寫的速度幾乎接近于內存的讀寫速度,主要原因就是由于 OS 使用 PageCache 機制對讀寫訪問操作進行了性能優(yōu)化。 頁緩存讀取策略:當進程發(fā)起一個讀操作 (比如,進程發(fā)起一個 read() 系統調用),它首先會檢查需要的數據是否在頁緩存中:
  • 如果在,則放棄訪問磁盤,而直接從頁緩存中讀取。
  • 如果不在,則內核調度塊 I/O 操作從磁盤去讀取數據,并讀入緊隨其后的少數幾個頁面(不少于一個頁面,通常是三個頁面),然后將數據放入頁緩存中。
頁緩存寫策略:當進程發(fā)起 write 系統調用寫數據到文件中,先寫到頁緩存,然后方法返回。此時數據還沒有真正的保存到文件中去,Linux 僅僅將頁緩存中的這一頁數據標記為 “臟”,并且被加入到臟頁鏈表中。 然后,由 flusher 回寫線程周期性將臟頁鏈表中的頁寫到磁盤,讓磁盤中的數據和內存中保持一致,最后清理“臟”標識。在以下三種情況下,臟頁會被寫回磁盤:
  1. 空閑內存低于一個特定閾值。
  2. 臟頁在內存中駐留超過一個特定的閾值時。
  3. 當用戶進程調用 sync() 和 fsync() 系統調用時。

存儲設備的 I/O 棧

由圖可見,從系統調用的接口再往下,Linux 下的 IO 棧致大致有三個層次:
  1. 文件系統層,以 write 為例,內核拷貝了 write 參數指定的用戶態(tài)數據到文件系統 Cache 中,并適時向下層同步。
  2. 塊層,管理塊設備的 IO 隊列,對 IO 請求進行合并、排序(還記得操作系統課程學習過的 IO 調度算法嗎? )。
  3. 設備層,通過 DMA 與內存直接交互,完成數據和具體設備之間的交互。
結合這個圖,想想 Linux 系統編程里用到的 Buffered IO、mmap、Direct IO,這些機制怎么和 Linux I/O 棧聯系起來呢?上面的圖有點復雜,我畫一幅簡圖,把這些機制所在的位置添加進去: Linux IO系統 這下一目了然了吧?傳統的 Buffered IO 使用 read 讀取文件的過程什么樣的?假設要去讀一個冷文件(Cache 中不存在),open 打開文件內核后建立了一系列的數據結構,接下來調用 read,到達文件系統這一層,發(fā)現 Page Cache 中不存在該位置的磁盤映射,然后創(chuàng)建相應的 Page Cache 并和相關的扇區(qū)關聯。然后請求繼續(xù)到達塊設備層,在 IO 隊列里排隊,接受一系列的調度后到達設備驅動層,此時一般使用 DMA 方式讀取相應的磁盤扇區(qū)到 Cache 中,然后 read 拷貝數據到用戶提供的用戶態(tài) buffer 中去(read 的參數指出的)。
整個過程有幾次拷貝?從磁盤到 Page Cache 算第一次的話,從 Page Cache 到用戶態(tài) buffer 就是第二次了。而 mmap 做了什么?mmap 直接把 Page Cache 映射到了用戶態(tài)的地址空間里了,所以 mmap 的方式讀文件是沒有第二次拷貝過程的。
那 Direct IO 做了什么?這個機制更狠,直接讓用戶態(tài)和塊 IO 層對接,直接放棄 Page Cache,從磁盤直接和用戶態(tài)拷貝數據。好處是什么?寫操作直接映射進程的buffer到磁盤扇區(qū),以 DMA 的方式傳輸數據,減少了原本需要到 Page Cache 層的一次拷貝,提升了寫的效率。對于讀而言,第一次肯定也是快于傳統的方式的,但是之后的讀就不如傳統方式了(當然也可以在用戶態(tài)自己做 Cache,有些商用數據庫就是這么做的)。
除了傳統的 Buffered IO 可以比較自由的用偏移 長度的方式讀寫文件之外,mmap 和 Direct IO 均有數據按頁對齊的要求,Direct IO 還限制讀寫必須是底層存儲設備塊大小的整數倍(甚至 Linux 2.4 還要求是文件系統邏輯塊的整數倍)。所以接口越來越底層,換來表面上的效率提升的背后,需要在應用程序這一層做更多的事情。所以想用好這些高級特性,除了深刻理解其背后的機制之外,也要在系統設計上下一番功夫。

I/O Buffering

如圖,當程序調用各類文件操作函數后,用戶數據(User Data)到達磁盤(Disk)的流程如圖所示。 圖中描述了 Linux 下文件操作函數的層級關系和內存緩存層的存在位置。中間的黑色實線是用戶態(tài)和內核態(tài)的分界線。 從上往下分析這張圖: 1. 首先是 C 語言 stdio 庫定義的相關文件操作函數,這些都是用戶態(tài)實現的跨平臺封裝函數。stdio 中實現的文件操作函數有自己的 stdio buffer,這是在用戶態(tài)實現的緩存。此處使用緩存的原因很簡單 — 系統調用總是昂貴的。如果用戶代碼以較小的 size 不斷的讀或寫文件的話,stdio 庫將多次的讀或者寫操作通過 buffer 進行聚合是可以提高程序運行效率的。stdio 庫同時也支持 fflush 函數來主動的刷新 buffer,主動的調用底層的系統調用立即更新 buffer 里的數據。特別地,setbuf 函數可以對 stdio 庫的用戶態(tài) buffer 進行設置,甚至取消 buffer 的使用。 2. 系統調用的 read/write 和真實的磁盤讀寫之間也存在一層 buffer,這里用術語 Kernel buffer cache 來指代這一層緩存。在 Linux 下,文件的緩存習慣性的稱之為 Page Cache,而更低一級的設備的緩存稱之為 Buffer Cache。這兩個概念很容易混淆,這里簡單的介紹下概念上的區(qū)別:Page Cache 用于緩存文件的內容,和文件系統比較相關。文件的內容需要映射到實際的物理磁盤,這種映射關系由文件系統來完成;Buffer Cache 用于緩存存儲設備塊(比如磁盤扇區(qū))的數據,而不關心是否有文件系統的存在(文件系統的元數據緩存在 Buffer Cache 中)。
本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯系該專欄作者,如若文章內容侵犯您的權益,請及時聯系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據媒體報道,騰訊和網易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數據產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數據產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數字經濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯合牽頭組建的NVI技術創(chuàng)新聯盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現場 NVI技術創(chuàng)新聯...

關鍵字: VI 傳輸協議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉