在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

FPGA和ASIC在大模型推理加速中的應用

傅里葉的貓 ? 來源:傅里葉的貓 ? 2024-10-29 14:12 ? 次閱讀

今天我們再來看一篇論文。

隨著現在AI的快速發展,使用FPGAASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優化,因此相比GPU這種通過計算平臺,功耗更低、延遲更小,但應用場景比較單一,在圖像/視頻方向就沒有優勢了。

整個AI的工業界,使用FPGA的目前還比較少,但學術界其實一直在用FPGA做很多的嘗試,比如通過簡化矩陣運算,使FPGA可以更好的發揮其優勢。

今天看的這篇論文,是一篇關于FPGA和ASIC在大模型推理加速和優化方向的綜述,我們看下目前的研究進展。

Introduction

Transformer模型在自然語言處理(NLP)、計算機視覺語音識別等多個領域都取得了顯著的成就。特別是,這些模型在機器翻譯、文本分類、圖像分類和目標檢測等任務中表現出色。Transformer模型需要比傳統神經網絡(如循環神經網絡、長短期記憶網絡和卷積神經網絡)更多的參數和計算操作。例如,Transformer-B模型包含1.1億參數,執行21.78億次浮點運算,而Vision Transformer (ViT)-B模型包含8600萬參數,執行16.85億次浮點運算。

GPU的局限性

盡管GPU在加速大型深度學習模型方面發揮了主要作用,但它們的高功耗限制了在邊緣環境中的適用性。因此,大多數大型深度學習模型在GPU服務器環境中處理,給數據中心帶來了沉重的負擔。

FPGA和ASIC的優勢

FPGA和ASIC在并行處理、設計靈活性和功耗效率方面具有優勢,被用作各種深度學習模型的專用加速平臺。通過壓縮和設計優化技術,可以優化FPGA和ASIC上的加速器性能,如吞吐量和功耗效率。

該論文對FPGA和ASIC基于Transformer的加速器的最新發展進行全面回顧,探索適合于FPGA/ASIC的模型壓縮技術,以及對最新的FPGA和ASIC加速器的性能進行比較。

研究背景

論文中這部分內容比較長,對Transformer模型和Vision Transformer (ViT)模型的進行了詳細介紹,包括它們的基本組件、不同的模型變體以及它們在計算上的特點,包含了很多理論部分,有興趣的讀者可以看原文,我只總結一下大概的內容。

Transformer模型主要由編碼器(Encoder)和解碼器(Decoder)組成。編碼器處理輸入序列生成上下文向量,而解碼器使用編碼器的上下文向量和前一步的輸出標記來生成下一步的標記。編碼器和解碼器的核心操作模塊包括多頭自注意力(MHSA)和前饋網絡(FFN)。通過MHSA,Transformer能夠訓練 token 之間的全局上下文信息,從而實現高精度。基于Transformer架構的也有不同的模型,如BERT、GPT等,他們的預訓練和微調方法也均有不同。這些模型在不同的NLP任務中表現出色,但大型模型如GPT-3由于參數眾多,難以在FPGA或ASIC上實現。

Vision Transformer (ViT)是針對計算機視覺任務提出的Transformer模型,主要用于圖像分類。與原始Transformer架構不同,ViT只使用編碼器,并且在編碼器之前進行LayerNorm操作。ViT通過將輸入圖像分割成固定大小的patches,然后通過線性投影生成Transformer輸入tokens。ViT的編碼器操作和圖像分類任務的執行方式也有詳細說明。基于ViT架構也有多種模型變體,如DeiT、Swin Transformer和TNT,這些模型通過不同的方式改進了ViT,例如通過知識蒸餾、層次結構和窗口機制、以及改進的patch嵌入方法來提高性能。

Transformer模型壓縮

要想在FPGA/ASIC上應用Transformer,肯定需要對模型進行改進,要讓算法硬件實現更加的友好。目前有常用的方式:

量化(Quantization)

量化是將模型的參數和激活值從通常的32位浮點數轉換為低精度數據格式(如INT8或INT4)的過程。這樣做可以有效減少內存需求,同時加快計算速度并降低功耗。比如線性量化的過程,并通過量化感知訓練(QAT)或后訓練量化(PTQ)來恢復因量化而可能損失的準確性。還可以通過優化權重和激活值的量化策略來實現高壓縮比和最小的準確性損失。

剪枝(Pruning)

剪枝是通過識別并移除模型中不重要的參數來減少模型大小的方法。剪枝可以基于不同的粒度,如細粒度、標記剪枝、頭部剪枝和塊剪枝。結構化剪枝(如標記、頭部和塊剪枝)會改變模型結構,而無結構化剪枝(如細粒度剪枝)則保留了模型結構,但可能導致內存利用效率低下。合理的Pruning可以在內存效率和準確性之間找到平衡點來實現SOTA性能。

硬件友好的全整數算法(Hardware-friendly fully-integer algorithm)

Transformer模型中的非線性操作(如Softmax和GeLU)需要高精度的浮點運算,這在FPGA或ASIC硬件上難以高效實現。為了解決這個問題,研究者們提出了一些近似算法和量化技術,以便在硬件上以整數形式處理這些非線性函數,從而減少對浮點運算的需求。

硬件加速器設計優化

在這一節,論文中詳細探討了針對FPGA和ASIC平臺的Transformer模型加速器的各種優化技術。其實這一節的內容跟上一節是一個道理,都是在講如何讓大模型算法更好的適應FPGA/ASIC的平臺。論文中也是花了很大的篇幅對每一個優化方法做了詳細分析,這里我也只是總結一下論文中使用到的優化方法,具體的內容還是建議有興趣的讀者看原文。

稀疏性(Sparsity)

計算優化(Computing Optimization)

內存優化(Memory Optimization)

硬件資源優化(Hardware Resource Optimization)

芯片面積優化(Chip Area Optimization)

軟硬件協同設計(Hardware-Software Co-design)

這些優化技術都可以幫助提高加速器的性能,降低功耗,并實現更高效的Transformer模型推理。

性能比較

這一部分主要是對基于FPGA和ASIC的Transformer加速器的性能進行了分析和比較。

FPGA加速器性能比較

下面這個表,展示了不同的加速器模型使用在數據格式、工作頻率、功耗、吞吐量(GOPS)、推理速度(FPS)以及所使用的FPGA資源(如DSP、LUT、FF和BRAM)的統計。

1080ac7c-95a6-11ef-a511-92fbcf53809c.png

對于基于FPGA的加速器,分析的這些指標都是FPGA芯片的關鍵資源。

可以看到,這些模型其實都有各自的優勢和劣勢,某些設計可能在吞吐量上有優勢,而其他設計可能在能效比或推理速度上有優勢。

ASIC加速器性能比較

下面這個表是不同模式在數據格式、工作頻率、制造工藝、芯片面積、功耗、吞吐量以及片上內存大小的統計。

1085f0b0-95a6-11ef-a511-92fbcf53809c.png

對于ASIC加速器,性能比較則側重于諸如芯片面積和技術節點等ASIC設計的關鍵指標。這些因素影響著ASIC芯片的成本、能耗以及計算效率。

Further work

在前面的幾節中,論文中調研了不同模型在FPGA/ASIC上的性能比較,本節作者提出了當前FPGA和ASIC基Transformer加速器研究的一些潛在方向和未來趨勢。

復雜任務的加速器

除了傳統的分類任務外,檢測和分割等更復雜的任務對計算能力的要求更高。學術界正在探索如何通過剪枝和優化來降低這些任務所需的能量消耗。

異構計算平臺

異構平臺也是目前非常火的一個方向,如何將CPU、GPU、FPGA和ASIC集成到一個平臺上,以利用每種處理器的優勢。這種異構架構可以提高吞吐量,降低延遲,并提高能源效率。

混合網絡性能提升

結合卷積神經網絡(CNN)和Transformer的混合網絡正在受到關注。

調度算法和通信協議

為了充分利用異構計算平臺的潛力,需要開發高效的調度算法和通信協議,優化處理器之間的數據流,減少瓶頸,提高整體性能。

硬件-軟件協同設計

軟硬件協同設計方法可以進一步優化Transformer模型的加速。通過迭代模擬和優化,可以找到最佳的硬件和軟件配置,以實現最低的延遲和最高的能效。

新應用和模型的開發

隨著新技術的發展,如擴散模型和LLM,需要開發新的應用和模型來利用這些技術。這可能涉及到開發新的硬件加速器,以支持這些模型的特定計算需求。

其實論文中講了這么多,我最關心的還是商業的部署,GPU的功耗就決定了它的應用場景不會特別廣,像邊緣計算設備,基本告別那種大功耗的GPU,FPGA/ASIC在這方面就會顯得有優勢。但目前來看,除了上面提到的LPU,現在ASIC已經在很多場景使用用于做一些“小模型”的推理任務,像現在比較火的AI PC,AI手機,都是在端側運行參數量較小的大模型,但FPGA在AI 端側的應用還任重而道遠。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1629

    文章

    21736

    瀏覽量

    603319
  • asic
    +關注

    關注

    34

    文章

    1200

    瀏覽量

    120501
  • AI
    AI
    +關注

    關注

    87

    文章

    30887

    瀏覽量

    269065
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121157
  • 大模型
    +關注

    關注

    2

    文章

    2448

    瀏覽量

    2701

原文標題:FPGA/ASIC在AI推理加速中的研究

文章出處:【微信號:傅里葉的貓,微信公眾號:傅里葉的貓】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    GPU、FPGAASIC鏖戰AI推理

    深度學習的概念,通常可以簡化為兩大工作流,一是訓練,二是推理。兩者完美融合才是一個現代化的完整深度學習網絡,缺一不可。訓練用于調整神經網絡模型的參數,從而在給定的數據上實現良好的表
    的頭像 發表于 03-15 07:39 ?2721次閱讀

    到底什么是ASICFPGA

    提供的門電路規模足夠大,通過編程,就能夠實現任意ASIC的邏輯功能。 FPGA開發套件,中間那個是FPGA芯片 我們再看看FPGA的發展歷程。
    發表于 01-23 19:08

    #硬聲創作季 #ASIC 可編程ASIC設計-06.03設計模型FPGA上實現

    fpgaasicIC設計
    水管工
    發布于 :2022年09月25日 05:10:18

    好奇~!谷歌的 Edge TPU 專用 ASIC 旨在將機器學習推理能力引入邊緣設備

    的 Edge TPU 扮演著關鍵角色——這款專用 ASIC 旨在將機器學習推理能力引入邊緣設備。近一年之后,兩款產品以“Coral”的名號推出了“Beta 測試版”,且目前已經可供感興趣的朋友購買。另外,這
    發表于 03-05 21:20

    深度學習推理和計算-通用AI核心

    商業發行之前就已經過時了。算法明天需要對架構、內存/數據進行徹底改革資源和能力。推理的夢幻建筑重新定義重寫在計算和交付突破性的人工智能加速和靈活的計算能力超越了服務器級CPU和比GPU/ASIC通用
    發表于 11-01 09:28

    FPGA能否繼續SoC類應用替代ASIC

    FPGA能否繼續SoC類應用替代ASIC?CoreConsole工具是什么,有什么功能?
    發表于 04-08 06:23

    壓縮模型加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導入到 STM32L462RCT我發現壓縮模型推理時間沒有影響。aiRun 程序 8
    發表于 01-29 06:24

    FPGAASIC/GPU NN實現進行定性的比較

    不同模型的NPU,而不是硬編碼和只支持優化特定模型的NPU。ASIC加速特定NN算子的數字
    發表于 02-08 15:26

    AscendCL快速入門——模型推理篇(上)

    三步。 把經過ATC轉化過的模型.om文件加載到內存。 為模型準備輸入輸出。 讓模型設備端執行推理。 二、
    發表于 08-24 11:04

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    使用 MindSpore Lite 推理引擎進行模型推理的通用開發流程。 基本概念 進行開發前,請先了解以下概念。 張量 :它與數組和矩陣非常相似,是 MindSpore Lite
    發表于 12-14 11:41

    FPGA_ASIC-MACFPGA的高效實現

    FPGA_ASIC-MACFPGA的高效實現(理士電源技術有限公司)-該文檔為FPGA_ASIC-MAC
    發表于 08-04 19:03 ?8次下載
    <b class='flag-5'>FPGA_ASIC</b>-MAC<b class='flag-5'>在</b><b class='flag-5'>FPGA</b><b class='flag-5'>中</b>的高效實現

    如何對推理加速器進行基準測試

      客戶對基準推理學習曲線的最后階段是開發自己的模型,使用通常來自 Nvidia 或數據中心的訓練硬件/軟件,然后可能的目標推理加速器上對
    的頭像 發表于 06-06 16:02 ?1331次閱讀

    如何加速大語言模型推理

    隨著人工智能技術的飛速發展,大語言模型(LLM)已成為自然語言處理領域的核心工具,廣泛應用于智能客服、文本生成、機器翻譯等多個場景。然而,大語言模型的高計算復雜度和資源消耗成為其實際應用
    的頭像 發表于 07-04 17:32 ?533次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型處理復雜任務
    的頭像 發表于 07-24 11:38 ?889次閱讀

    高效大模型推理綜述

    模型由于其各種任務的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其
    的頭像 發表于 11-15 11:45 ?375次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述
    主站蜘蛛池模板: 久久福利网| free chinese 国产精品| xxxx日本老师hd| 午夜免费小视频| 201天天爱天天做| 亚洲产国偷v产偷v自拍色戒| 美女免费毛片| 色片视频网站| 青青草99热久久| 亚洲综合色站| 黄视频在线播放| 国产午夜免费视频片夜色| 被cao到合不拢腿腐男男| 乱码中文字幕人成在线| 免费午夜视频在线观看| 成人国产一区| 狠狠色丁香六月色| 国产v精品成人免费视频400条| 一本二卡三卡四卡乱码二百| 国产一级片免费看| 1300部小u女视频免费| 五月情视频在线观看| 91精品欧美激情在线播放| 俄罗斯美女69xxxxxx| 日本免费网| 欧美三级午夜伦理片| 在线视频你懂得| 高清国产在线| 68日本 xxxxxxxxx| 欧美日剧在线免费| 就操| 亚洲一区二区影院| 欧美色操| 国产午夜免费视频| 色人阁综合| 手机福利在线| 影院成人区精品一区二区婷婷丽春院影视| 国产色妞妞在线视频免费播放| 欧美性一区| 午夜艹逼| 天天夜天天干|