在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文搞懂 CPU、GPU 和 TPU

電子工程師 ? 來源:未知 ? 作者:工程師李察 ? 2018-09-15 10:46 ? 次閱讀

張量處理單元(TPU)是一種定制化的 ASIC 芯片,它由谷歌從頭設計,并專門用于機器學習工作負載。TPU 為谷歌的主要產品提供了計算支持,包括翻譯、照片、搜索助理和 Gmail 等。

在本文中,我們將關注 TPU 某些特定的屬性。

神經網絡如何運算

在我們對比 CPUGPU 和 TPU 之前,我們可以先了解到底機器學習或神經網絡需要什么樣的計算。如下所示,假設我們使用單層神經網絡識別手寫數字。

如果圖像為 28×28 像素的灰度圖,那么它可以轉化為包含 784 個元素的向量。神經元會接收所有 784 個值,并將它們與參數值(上圖紅線)相乘,因此才能識別為「8」。其中參數值的作用類似于用「濾波器」從數據中抽取特征,因而能計算輸入圖像與「8」之間的相似性:

這是對神經網絡做數據分類最基礎的解釋,即將數據與對應的參數相乘(上圖兩種顏色的點),并將它們加在一起(上圖右側收集計算結果)。如果我們能得到最高的預測值,那么我們會發現輸入數據與對應參數非常匹配,這也就最可能是正確的答案。

簡單而言,神經網絡在數據和參數之間需要執行大量的乘法和加法。我們通常會將這些乘法與加法組合為矩陣運算,這在我們大學的線性代數中會提到。所以關鍵點是我們該如何快速執行大型矩陣運算,同時還需要更小的能耗。

CPU 如何運行

因此 CPU 如何來執行這樣的大型矩陣運算任務呢?一般 CPU 是基于馮諾依曼架構的通用處理器,這意味著 CPU 與軟件和內存的運行方式如下:

圖:CPU 如何運行

CPU 最大的優勢是靈活性。通過馮諾依曼架構,我們可以為數百萬的不同應用加載任何軟件。我們可以使用 CPU 處理文字、控制火箭引擎、執行銀行交易或者使用神經網絡分類圖像。

但是,由于 CPU 非常靈活,硬件無法一直了解下一個計算是什么,直到它讀取了軟件的下一個指令。CPU 必須在內部將每次計算的結果保存到內存中(也被稱為寄存器或 L1 緩存)。內存訪問成為 CPU 架構的不足,被稱為馮諾依曼瓶頸。

雖然神經網絡的大規模運算中的每一步都是完全可預測的,每一個 CPU 的算術邏輯單元(ALU,控制乘法器和加法器的組件)都只能一個接一個地執行它們,每一次都需要訪問內存,限制了總體吞吐量,并需要大量的能耗。

GPU 如何工作

為了獲得比 CPU 更高的吞吐量,GPU 使用一種簡單的策略:在單個處理器中使用成千上萬個 ALU。現代 GPU 通常在單個處理器中擁有 2500-5000 個 ALU,意味著你可以同時執行數千次乘法和加法運算。

圖:GPU 如何工作

這種 GPU 架構在有大量并行化的應用中工作得很好,例如在神經網絡中的矩陣乘法。實際上,相比 CPU,GPU 在深度學習的典型訓練工作負載中能實現高幾個數量級的吞吐量。這正是為什么 GPU 是深度學習中最受歡迎的處理器架構。

但是,GPU 仍然是一種通用的處理器,必須支持幾百萬種不同的應用和軟件。這又把我們帶回到了基礎的問題,馮諾依曼瓶頸。在每次幾千個 ALU 的計算中,GPU 都需要訪問寄存器或共享內存來讀取和保存中間計算結果。

因為 GPU 在其 ALU 上執行更多的并行計算,它也會成比例地耗費更多的能量來訪問內存,同時也因為復雜的線路而增加 GPU 的物理空間占用。

TPU 如何工作

當谷歌設計 TPU 的時候,我們構建了一種領域特定的架構。這意味著,我們沒有設計一種通用的處理器,而是專用于神經網絡工作負載的矩陣處理器。

TPU 不能運行文本處理軟件、控制火箭引擎或執行銀行業務,但它們可以為神經網絡處理大量的乘法和加法運算,同時 TPU 的速度非常快、能耗非常小且物理空間占用也更小。

其主要助因是對馮諾依曼瓶頸的大幅度簡化。因為該處理器的主要任務是矩陣處理,TPU 的硬件設計者知道該運算過程的每個步驟。因此他們放置了成千上萬的乘法器和加法器并將它們直接連接起來,以構建那些運算符的物理矩陣。

這被稱作脈動陣列(Systolic Array)架構。在 Cloud TPU v2 的例子中,有兩個 128X128 的脈動陣列,在單個處理器中集成了 32768 個 ALU 的 16 位浮點值。

我們來看看一個脈動陣列如何執行神經網絡計算。首先,TPU 從內存加載參數到乘法器和加法器的矩陣中。

圖:TPU 如何工作

然后,TPU 從內存加載數據。當每個乘法被執行后,其結果將被傳遞到下一個乘法器,同時執行加法。因此結果將是所有數據和參數乘積的和。在大量計算和數據傳遞的整個過程中,不需要執行任何的內存訪問。

這就是為什么 TPU 可以在神經網絡運算上達到高計算吞吐量,同時能耗和物理空間都很小。

因此使用 TPU 架構的好處就是:成本降低至 1/5。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    455

    文章

    50816

    瀏覽量

    423627
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10863

    瀏覽量

    211767
  • 谷歌
    +關注

    關注

    27

    文章

    6168

    瀏覽量

    105382

原文標題:一文搞懂 CPU、GPU 和 TPU

文章出處:【微信號:FPGAer_Club,微信公眾號:FPGAer俱樂部】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    看懂】大白話解釋“GPUGPU算力”

    隨著大模型的興起,“GPU算力”這個詞正頻繁出現在人工智能、游戲、圖形設計等工作場景中,什么是GPU,它與CPU的區別是什么?以及到底什么是GPU算力?本篇文章主要從以下5個角度,讓您
    的頭像 發表于 10-29 08:05 ?627次閱讀
    【<b class='flag-5'>一</b><b class='flag-5'>文</b>看懂】大白話解釋“<b class='flag-5'>GPU</b>與<b class='flag-5'>GPU</b>算力”

    【「大模型時代的基礎架構」閱讀體驗】+ 第、二章學習感受

    常用的機器學習算法,重點剖析了元線性回歸算法,由此引出機器學習算法的運算特征,此后分別描述了使用CPUGPUTPU和NPU運行機器學習算法的特點,比如
    發表于 10-10 10:36

    TPU v1到Trillium TPU,蘋果等科技公司使用谷歌TPU進行AI計算

    ,在訓練尖端人工智能方面,大型科技公司正在尋找英偉達以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機器學習算法,特別是深度學習算法在各個領域的廣泛應用,對于高效、低功耗的AI計算硬件需求日益增長。傳統的CPUGPU
    的頭像 發表于 07-31 01:08 ?3375次閱讀

    CPU渲染和GPU渲染優劣分析

    使用計算機進行渲染時,有兩種流行的系統:基于中央處理單元(CPU)或基于圖形處理單元(GPU)。CPU渲染利用計算機的CPU來執行場景并將其渲染到接近完美。這也是執行渲染的更傳統方式。
    的頭像 發表于 05-23 08:27 ?598次閱讀
    <b class='flag-5'>CPU</b>渲染和<b class='flag-5'>GPU</b>渲染優劣分析

    X-Silicon發布RISC-V新架構 實現CPU/GPU體化

    X-Silicon 的芯片與其他架構不同,其設計將 CPUGPU 的功能整合到單核架構中。這與英特爾和 AMD 的典型設計不同,前者有獨立的 CPU 內核和 GPU 內核。
    發表于 04-08 11:34 ?586次閱讀
    X-Silicon發布RISC-V新架構 實現<b class='flag-5'>CPU</b>/<b class='flag-5'>GPU</b><b class='flag-5'>一</b>體化

    RISC-V芯片新突破:CPUGPU體化核心設計

    X-Silicon 的芯片與其他架構不同,其設計將 CPUGPU 的功能結合到單核架構中。這與 Intel 和 AMD 的典型設計不同,后者有獨立的 CPU 核心和 GPU 核心
    發表于 04-07 10:41 ?732次閱讀
    RISC-V芯片新突破:<b class='flag-5'>CPU</b>與<b class='flag-5'>GPU</b><b class='flag-5'>一</b>體化核心設計

    詳解GPU硬件與CUDA開發工具

    CPUGPU 的顯著區別是:個典型的 CPU 擁有少數幾個快速的計算核心,而個典型的 GPU
    的頭像 發表于 03-21 10:15 ?1179次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解<b class='flag-5'>GPU</b>硬件與CUDA開發工具

    Groq推出大模型推理芯片 超越了傳統GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統GPU和谷歌TPU
    的頭像 發表于 02-26 10:24 ?1044次閱讀
    Groq推出大模型推理芯片 超越了傳統<b class='flag-5'>GPU</b>和谷歌<b class='flag-5'>TPU</b>

    gpu是什么和cpu的區別

    GPUCPU是兩種常見的計算機處理器,它們在結構和功能上有很大的區別。在這篇文章中,我們將探討GPUCPU的區別,并詳細介紹它們的原理、應用領域和性能特點。
    的頭像 發表于 02-20 11:24 ?1.9w次閱讀

    gpu服務器是干什么的 gpu服務器與cpu服務器的區別有哪些

    gpu服務器是干什么的 gpu服務器與cpu服務器的區別 GPU服務器是種專門用于處理圖形運算的服務器,而
    的頭像 發表于 01-30 15:31 ?869次閱讀

    為什么GPUCPU更快?

    GPUCPU更快的原因并行處理能力:GPU可以同時處理多個任務和數據,而CPU通常只能次處理
    的頭像 發表于 01-26 08:30 ?2413次閱讀
    為什么<b class='flag-5'>GPU</b>比<b class='flag-5'>CPU</b>更快?

    tpu材料的用途和特點

    TPU材料,即熱塑性聚氨酯(Thermoplastic Polyurethane),是種聚合物材料,具有廣泛的應用領域和獨特的特點。 TPU材料的主要用途如下: 鞋類行業:TPU材料
    的頭像 發表于 01-16 10:17 ?3272次閱讀

    GPU是顯卡嗎 cpugpu哪個算力強

    GPU(圖形處理器)是顯卡(顯像處理器)的種,它是種專門用于圖形計算的處理器。顯卡是計算機中的個重要組件,負責處理和渲染圖形,使它們能夠在顯示屏上顯示出來。
    的頭像 發表于 01-10 15:45 ?5289次閱讀

    TPU-MLIR開發環境配置時出現的各種問題求解

    按照 TPU-MLIR 開發指南進行環境配置: 2.1. 代碼下載? 代碼路徑: https://github.com/sophgo/tpu-mlir 克隆該代碼后, 需要在Docker中編譯
    發表于 01-10 08:02

    CPUGPU散熱器設計的異同及其重要性

    計算機的穩定和性能不受影響,散熱器成為了必要的組件。本文將詳述CPUGPU散熱器的設計異同以及其重要性。 、設計異同 1. 散熱原理: CPU
    的頭像 發表于 01-09 14:00 ?1299次閱讀
    主站蜘蛛池模板: 极品国产一区二区三区| 激情午夜婷婷| 国产精品国产三级国产普通话对白 | 天堂黄网| 性欧美一区| 91在线网| 亚洲伊人久久大香线蕉啊| 五月天丁香婷婷网| 欧美影院一区二区三区| 在线观看永久免费视频网站| 天天操天天干天天爽| kkk4444免费观看| 色综合久久综合欧美综合图片| 欧美日韩中文字幕| 国模私拍大尺度视频在线播放| 91伊人久久大香线蕉| 免费久久久久| 免费二级c片观看| 四虎最新影院| 久久久久免费精品国产小说| 人人插人人| 在线观看一级毛片| 日本人色道| 国产精品九九久久一区hh | 视频在线免费观看网址| 特黄特黄视频| 亚洲日本中文字幕天天更新| 狠狠干天天爽| 性欧美高清强烈性视频| jiuma和我啪啪| 成人免费黄色| 国产汉服被啪福利在线观看| 精品卡1卡2卡三卡免费视频| 国产午夜a理论毛片在线影院| 性夜影院午夜看片| 在线观看s色| 黄网站色视频大全免费观看| 日韩免费三级| 久久精品国产福利| 五月婷婷综合在线| 天天做天天爱天天做天天吃中|