在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

IT從業者應該知道的CPU Cache相關的知識

Linux閱碼場 ? 來源:cg ? 2019-01-04 09:30 ? 次閱讀

先來看一張本文所有概念的一個思維導圖

為什么要有CPU Cache

隨著工藝的提升最近幾十年CPU的頻率不斷提升,而受制于制造工藝和成本限制,目前計算機的內存主要是DRAM并且在訪問速度上沒有質的突破。因此,CPU的處理速度和內存的訪問速度差距越來越大,甚至可以達到上萬倍。這種情況下傳統的CPU通過FSB直連內存的方式顯然就會因為內存訪問的等待,導致計算資源大量閑置,降低CPU整體吞吐量。同時又由于內存數據訪問的熱點集中性,在CPU和內存之間用較為快速而成本較高的SDRAM做一層緩存,就顯得性價比極高了。

為什么要有多級CPU Cache

隨著科技發展,熱點數據的體積越來越大,單純的增加一級緩存大小的性價比已經很低了。因此,就慢慢出現了在一級緩存(L1 Cache)和內存之間又增加一層訪問速度和成本都介于兩者之間的二級緩存(L2 Cache)。下面是一段從What Every Programmer Should Know About Memory中摘錄的解釋:

Soon after the introduction of the cache the system got more complicated. The speed difference between the cache and the main memory increased again, to a point that another level of cache was added, bigger and slower than the first-level cache. Only increasing the size of the first-level cache was not an option for economical rea- sons.

此外,又由于程序指令和程序數據的行為和熱點分布差異很大,因此L1 Cache也被劃分成L1i (i for instruction)和L1d (d for data)兩種專門用途的緩存。 下面一張圖可以看出各級緩存之間的響應時間差距,以及內存到底有多慢!

什么是Cache Line

Cache Line可以簡單的理解為CPU Cache中的最小緩存單位。目前主流的CPU Cache的Cache Line大小都是64Bytes。假設我們有一個512字節的一級緩存,那么按照64B的緩存單位大小來算,這個一級緩存所能存放的緩存個數就是512/64 = 8個。具體參見下圖:

為了更好的了解Cache Line,我們還可以在自己的電腦上做下面這個有趣的實驗。

下面這段C代碼,會從命令行接收一個參數作為數組的大小創建一個數量為N的int數組。并依次循環的從這個數組中進行數組內容訪問,循環10億次。最終輸出數組總大小和對應總執行時間。

#include "stdio.h" #include #include long timediff(clock_t t1, clock_t t2) { long elapsed; elapsed = ((double)t2 - t1) / CLOCKS_PER_SEC * 1000; return elapsed;}int main(int argc, char *argv[])#*******{ int array_size=atoi(argv[1]); int repeat_times = 1000000000; long array[array_size]; for(int i=0; i

如果我們把這些數據做成折線圖后就會發現:總執行時間在數組大小超過64Bytes時有較為明顯的拐點(當然,由于博主是在自己的Mac筆記本上測試的,會受到很多其他程序的干擾,因此會有波動)。原因是當數組小于64Bytes時數組極有可能落在一條Cache Line內,而一個元素的訪問就會使得整條Cache Line被填充,因而值得后面的若干個元素受益于緩存帶來的加速。而當數組大于64Bytes時,必然至少需要兩條Cache Line,繼而在循環訪問時會出現兩次Cache Line的填充,由于緩存填充的時間遠高于數據訪問的響應時間,因此多一次緩存填充對于總執行的影響會被放大,最終得到下圖的結果:

gcc cache_line_size.c -o cache_line_size編譯,并通過./cache_line_size執行。

了解Cache Line的概念對我們程序猿有什么幫助?我們來看下面這個C語言中常用的循環優化例子下面兩段代碼中,第一段代碼在C語言中總是比第二段代碼的執行速度要快。具體的原因相信你仔細閱讀了Cache Line的介紹后就很容易理解了。

for(int i = 0; i < n; i++) { ? ?for(int j = 0; j < n; j++) { ? ? ? ?int num; ? ? ? ? ? ?//code ? ? ? ?arr[i][j] = num; ? ?}}for(int i = 0; i < n; i++) { ? ?for(int j = 0; j < n; j++) { ? ? ? ?int num; ? ? ? ? ? ?//code ? ? ? ?arr[j][i] = num; ? ?}}

CPU Cache 是如何存放數據的

你會怎么設計Cache的存放規則

我們先來嘗試回答一下那么這個問題:

假設我們有一塊4MB的區域用于緩存,每個緩存對象的唯一標識是它所在的物理內存地址。每個緩存對象大小是64Bytes,所有可以被緩存對象的大小總和(即物理內存總大小)為4GB。那么我們該如何設計這個緩存?

如果你和博主一樣是一個大學沒有好好學習基礎/數字電路的人的話,會覺得最靠譜的的一種方式就是:Hash表。把Cache設計成一個Hash數組。內存地址的Hash值作為數組的Index,緩存對象的值作為數組的Value。每次存取時,都把地址做一次Hash然后找到Cache中對應的位置操作即可。 這樣的設計方式在高等語言中很常見,也顯然很高效。因為Hash值得計算雖然耗時(10000個CPU Cycle左右),但是相比程序中其他操作(上百萬的CPU Cycle)來說可以忽略不計。而對于CPU Cache來說,本來其設計目標就是在幾十CPU Cycle內獲取到數據。如果訪問效率是百萬Cycle這個等級的話,還不如到Memory直接獲取數據。當然,更重要的原因是在硬件上要實現Memory Address Hash的功能在成本上是非常高的。

為什么Cache不能做成Fully Associative

Fully Associative 字面意思是全關聯。在CPU Cache中的含義是:如果在一個Cache集內,任何一個內存地址的數據可以被緩存在任何一個Cache Line里,那么我們成這個cache是Fully Associative。從定義中我們可以得出這樣的結論:給到一個內存地址,要知道他是否存在于Cache中,需要遍歷所有Cache Line并比較緩存內容的內存地址。而Cache的本意就是為了在盡可能少得CPU Cycle內取到數據。那么想要設計一個快速的Fully Associative的Cache幾乎是不可能的。

為什么Cache不能做成Direct Mapped

和Fully Associative完全相反,使用Direct Mapped模式的Cache給定一個內存地址,就唯一確定了一條Cache Line。設計復雜度低且速度快。那么為什么Cache不使用這種模式呢?讓我們來想象這么一種情況:一個擁有1M L2 Cache的32位CPU,每條Cache Line的大小為64Bytes。那么整個L2Cache被劃為了1M/64=16384條Cache Line。我們為每條Cache Line從0開始編上號。同時32位CPU所能管理的內存地址范圍是2^32=4G,那么Direct Mapped模式下,內存也被劃為4G/16384=256K的小份。也就是說每256K的內存地址共享一條Cache Line。但是,這種模式下每條Cache Line的使用率如果要做到接近100%,就需要操作系統對于內存的分配和訪問在地址上也是近乎平均的。而與我們的意愿相反,為了減少內存碎片和實現便捷,操作系統更多的是連續集中的使用內存。這樣會出現的情況就是0-1000號這樣的低編號Cache Line由于內存經常被分配并使用,而16000號以上的Cache Line由于內存鮮有進程訪問,幾乎一直處于空閑狀態。這種情況下,本來就寶貴的1M二級CPU緩存,使用率也許50%都無法達到。

什么是N-Way Set Associative

為了避免以上兩種設計模式的缺陷,N-Way Set Associative緩存就出現了。他的原理是把一個緩存按照N個Cache Line作為一組(set),緩存按組劃為等分。這樣一個64位系統的內存地址在4MB二級緩存中就劃成了三個部分(見下圖),低位6個bit表示在Cache Line中的偏移量,中間12bit表示Cache組號(set index),剩余的高位46bit就是內存地址的唯一id。這樣的設計相較前兩種設計有以下兩點好處:

給定一個內存地址可以唯一對應一個set,對于set中只需遍歷16個元素就可以確定對象是否在緩存中(Full Associative中比較次數隨內存大小線性增加)

每2^18(256K)*16(way)=4M的連續熱點數據才會導致一個set內的conflict(Direct Mapped中512K的連續熱點數據就會出現conflict)

什么N-Way Set Associative的Set段是從低位而不是高位開始的

下面是一段從How Misaligning Data Can Increase Performance 12x by Reducing Cache Misses摘錄的解釋:

The vast majority of accesses are close together, so moving the set index bits upwards would cause more conflict misses. You might be able to get away with a hash function that isn’t simply the least significant bits, but most proposed schemes hurt about as much as they help while adding extra complexity.

由于內存的訪問通常是大片連續的,或者是因為在同一程序中而導致地址接近的(即這些內存地址的高位都是一樣的)。所以如果把內存地址的高位作為set index的話,那么短時間的大量內存訪問都會因為set index相同而落在同一個set index中,從而導致cache conflicts使得L2, L3 Cache的命中率低下,影響程序的整體執行效率。

了解N-Way Set Associative的存儲模式對我們有什么幫助

了解N-Way Set的概念后,我們不難得出以下結論:2^(6Bits + 12Bits )=2^18=256K。即在連續的內存地址中每256K都會出現一個處于同一個Cache Set中的緩存對象。也就是說這些對象都會爭搶一個僅有16個空位的緩存池(16-Way Set)。而如果我們在程序中又使用了所謂優化神器的“內存對齊”的時候,這種爭搶就會越發增多。效率上的損失也會變得非常明顯。具體的實際測試我們可以參考:How Misaligning Data Can Increase Performance 12x by Reducing Cache Misses一文。 這里我們引用一張Gallery of Processor Cache Effects中的測試結果圖,來解釋下內存對齊在極端情況下帶來的性能損失。

該圖實際上是我們上文中第一個測試的一個變種。縱軸表示了測試對象數組的大小。橫軸表示了每次數組元素訪問之間的index間隔。而圖中的顏色表示了響應時間的長短,藍色越明顯的部分表示響應時間越長。從這個圖我們可以得到很多結論。當然這里我們只對內存帶來的性能損失感興趣。有興趣的讀者也可以閱讀原文分析理解其他從圖中可以得到的結論。

從圖中我們不難看出圖中每1024個步進,即每1024*4即4096Bytes,都有一條特別明顯的藍色豎線。也就是說,只要我們按照4K的步進去訪問內存(內存根據4K對齊),無論熱點數據多大它的實際效率都是非常低的!按照我們上文的分析,如果4KB的內存對齊,那么一個240MB的數組就含有61440個可以被訪問到的數組元素;而對于一個每256K就會有set沖突的16Way二級緩存,總共有256K/4K=64個元素要去爭搶16個空位,總共有61440/64=960個這樣的元素。那么緩存命中率只有1%,自然效率也就低了。

Cache淘汰策略

在文章的最后我們順帶提一下CPU Cache的淘汰策略。常見的淘汰策略主要有LRU和Random兩種。通常意義下LRU對于Cache的命中率會比Random更好,所以CPU Cache的淘汰策略選擇的是LRU。當然也有些實驗顯示在Cache Size較大的時候Random策略會有更高的命中率

總結

CPU Cache對于程序猿是透明的,所有的操作和策略都在CPU內部完成。但是,了解和理解CPU Cache的設計、工作原理有利于我們更好的利用CPU Cache,寫出更多對CPU Cache友好的程序。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10871

    瀏覽量

    211942
  • IT
    IT
    +關注

    關注

    2

    文章

    866

    瀏覽量

    63542

原文標題:關于CPU Cache -- 程序猿需要知道的那些事

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    10個問題及答案保障LED從業者用電安全

    照明開關為何必須接在火線上?單相三孔插座如何安裝才正確?為什么?塑料絕緣導線為什么嚴禁直接埋在墻內?本文從十個問題以及答案方面解析了LED從業者需要注意的用電安全。
    發表于 02-24 09:41 ?1018次閱讀

    開關電源從業者必看資料——《開關電源常規測試項目》

    開關電源從業者必看資料——《開關電源常規測試項目》
    發表于 04-29 22:03

    電源從業者必看必會之變壓器基礎知識_制作流程_詳解

    適合電源從業者的基礎知識入門維修必看
    發表于 11-10 20:42

    電源從業者必知必會之12種開關電源拓撲及計算公式

    =oxh_wx3、【周啟全老師】開關電源全集http://t.elecfans.com/topic/130.html?elecfans_trackid=oxh_wx 電源從業者必知必會12種開關電源拓撲及計算公式
    發表于 06-02 22:03

    開關電源從業者入門資料 開關電源結構和基本原理

    非常適合開關電源從業者入門的資料 開關電源結構和基本原理資料分享來自于網絡資源
    發表于 09-05 21:42

    軟件測試從業者需要具備哪些技能

    當神一樣看待,但是必須得會熟練的使用。操作系統相關知識Windows、linux、uinx這些都必須會使用,而且不僅僅是簡單的操作,一般的服務管理、注冊表編輯、命令行操作都需要會!要知道如果下一個連
    發表于 07-16 16:22

    軟件測試從業者需要具備哪些技能

    當神一樣看待,但是必須得會熟練的使用。操作系統相關知識Windows、linux、uinx這些都必須會使用,而且不僅僅是簡單的操作,一般的服務管理、注冊表編輯、命令行操作都需要會!要知道如果下一個連
    發表于 11-23 10:00

    電池配組方案(電池修復從業者必讀)

    電池配組方案(電池修復從業者必讀)    很多朋友來問:為什么電池修復好,經過測試性能相當
    發表于 11-16 13:44 ?5084次閱讀

    機器學習從業者工具使用方面大數據分析

    數據科學是個變化極快的領域,業內人員需要不斷更新知識體系,才可以在業內保持一定地位,不被時代淘汰。Stack Overflow Q&A、Conferences 和 Podcasts 是已從業者經常使用的學習平臺。
    的頭像 發表于 12-04 16:34 ?4078次閱讀
    機器學習<b class='flag-5'>從業者</b>工具使用方面大數據分析

    NVIDIA持續助力AI教育及研究從業者

    AI教育關乎未來發展。一直以來,NVIDIA都堅持與AI教育和研究從業者并肩前行,以促進AI技術的普及,迎接AI驅動下的未來經濟。
    的頭像 發表于 09-12 14:09 ?3194次閱讀

    已入冰點的通信行業 從業者該清醒清醒了

    伴隨著營業收入出現拐點,通信行業已經跌入冰點。面對如此不利的經營形式,通信行業從業企業和從業者該醒醒了。
    的頭像 發表于 07-12 17:04 ?2455次閱讀

    作為一名人工智能從業者應該看到什么

    不斷流向業界、常規架構算力進入瓶頸期的今天,作為一名從業者應該看到什么?他們是這樣說的…… ? 吳恩達分享了自己對人工智能在接下來一年中發展的三個愿望: ? 縮短概念證明與生產之間的差距。盡管搭建好的模型很重要,但很多人現在也意識到,
    的頭像 發表于 01-07 14:06 ?1719次閱讀

    ML從業者如何閱讀研究論文

      數據科學專業的性質是非常實用和涉及的。這意味著,數據科學領域與人工智能密切相關,人工智能仍然是一個發展中的領域,因此,它的從業者必須具備學術思維。
    的頭像 發表于 04-08 14:22 ?834次閱讀
    ML<b class='flag-5'>從業者</b>如何閱讀研究論文

    專訪AI從業者關彥斌:面對AI,人們需要了解如何去駕馭那個時代!

    ,也涌現了一大批人工智能從業者。對于未來人工智能發展,不妨聽聽相關從業者關彥斌的看法。 很多人都預測 2023 年將是 AI 之年,2022 年圖像生成工具以及聊天工具 ChatGPT 等消費者化是人工智能開始普及應用的標志,2
    的頭像 發表于 02-10 11:25 ?2070次閱讀

    作為IT從業者,為什么我推薦華為云ECS?

    作為一名IT從業者,我經常會被問到關于云計算的問題。在這里,我想分享一下我的看法,并向大家推薦華為云ECS。 首先,讓我們來了解一下什么是彈性云服務器。彈性云服務器(Elastic Cloud
    的頭像 發表于 06-24 00:26 ?757次閱讀
    主站蜘蛛池模板: 黄视频在线播放| 亚洲第一看片| 人人看人人添人人爽| 四虎免费看黄| 午夜高清福利| 韩国三级理在线视频观看| 四虎国产永久免费久久| 性视频亚洲| 999国产精品| 天堂8中文在线bt| www色.com| 久久综合图片| 四虎影视入口| 日本免费网站观看| 性欧美zoz0另类xxxx| 男人j进人女人j 的视频| 亚洲女人小便| 成人激情视频网| 欧日韩视频777888| 午夜免费片| www国产永久免费视频看看| 永久免费看| 国产va| 国模私拍福利一区二区| 成人a毛片在线看免费全部播放| 香港三级在线视频| 永久免费看毛片| 国产欧美另类第一页| 天天做天天爱天天操| 亚洲vv| a天堂在线观看| 国产盗摄女子私密保健视频| 很黄很色的网站| 久久手机免费视频| 久久久精品久久久久久久久久久 | jinv在线视频| 午夜黄色剧场| 四虎一影院区永久精品| 美女视频黄a| 久久综合欧美成人| 亚洲爽爽网|