在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SOK的Embedding計算過程及原理詳解

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 作者:NVIDIA英偉達企業(yè)解 ? 2022-06-14 11:34 ? 次閱讀

在上期文章中,我們對 HugeCTR Sparse Operation Kit (以下簡稱SOK) 的基本功能,性能,以及 API 用法做了初步的介紹,相信大家對如何使用 SOK 已經(jīng)有了基本的了解。在這期文章中,我們將從在 TensorFlow 上使用 SOK 時常見的“數(shù)據(jù)并行-模型并行-數(shù)據(jù)并行”流程入手,帶大家詳細了解 SOK 的原理。

1f4928c8-eb09-11ec-ba43-dac502259ad0.png

SOK 的 Embedding 計算主要分為三個階段:input-dispatcher -> lookup -> output-dispatcher,接下來我們將以 all-to-all 稠密 Embedding 層為例,帶大家梳理各個階段的計算過程。

1. Input Dispatcher

Input Dispatcher 的職責是將數(shù)據(jù)以并行的形式的輸入,分配到各個 GPU 上。總共分為以下幾個步驟:

第一步:對每個 GPU 接收到的數(shù)據(jù)并行的 category key,按照 key 求余 GPU 的數(shù)量計算出其對應的 GPU ID,并分成和 GPU 數(shù)量相同的組;同時計算出每組內(nèi)有多少 key。例如圖 2 中,GPU 的總數(shù)為 2,GPU 0 獲取的輸入為 [0, 1, 2, 3],根據(jù)前面所講的規(guī)則,它將會被分成 [0, 2], [1, 3]兩組。注意,在這一步,我們還會為每個分組產(chǎn)生一個 order 信息,用于 output dispacher 的重排序。

第二步:通過 NCCL 交換各個 GPU 上每組 key 的數(shù)量。由于每個 GPU 獲取的輸入,按照 key 求余 GPU 數(shù)量不一定能夠均分,如圖 3 所示,提前在各個 GPU 上交換 key 的總數(shù),可以在后面交換 key 的時候減少通信量。

1f8b1b0c-eb09-11ec-ba43-dac502259ad0.png

第三步:使用 NCCL,在各個 GPU 間按照 GPU ID 交換前面分好的各組 key,如圖 4 所示。

1f971a24-eb09-11ec-ba43-dac502259ad0.png

Step4:對交換后的所有 key 除以 GPU 總數(shù),這一步是為了讓每個 GPU 上的 key的數(shù)值范圍都小于 embedding table size 整除 GPU 的數(shù)量,保證后續(xù)在每個 worker 上執(zhí)行 lookup 時不會越界,結(jié)果如圖 5 所示。

總而言之,經(jīng)過上面 4 個步驟,我們將數(shù)據(jù)并行地輸入,按照其求余 GPU 數(shù)量的結(jié)果,分配到了不同對應的 GPU 上,完成了 input key 從數(shù)據(jù)并行到模型并行的轉(zhuǎn)化。雖然用戶往每個 GPU 上輸入的都可以是 embedding table 里的任何一個 key,但是經(jīng)過上述的轉(zhuǎn)化過程后,每個 GPU 上則只需要處理 embedding table 里 1/GPU_NUMBER 的 lookup。

1fc5d65c-eb09-11ec-ba43-dac502259ad0.png

2. Lookup

Lookup 的功能比較簡單,和單機的 lookup 的行為相同,就是用 input dispatcher 輸出的 key,在本地的 embedding table 里查詢出對應的 embedding vector,我們同樣用一個簡單的圖來舉例。注意下圖中 Global Index 代表每個 embedding vector 在實際的 embedding table 中對應的 key,而 Index 則是當前 GPU 的“部分”embedding table 中的 key。

201f419c-eb09-11ec-ba43-dac502259ad0.png

3. Output Dispatcher

和 input dispatcher 的功能對應,output dispatcher 是將 embedding vector 按照和 input dispatcher 相同的路徑、相反的方向?qū)?embedding vector 返回給各個 GPU,讓模型并行的 lookup 結(jié)果重新變成數(shù)據(jù)并行。

第一步:復用 input dispatcher 中的分組信息,將 embedding vector 進行分組,如圖 7 所示。

204b0610-eb09-11ec-ba43-dac502259ad0.png

第二步:通過 NCCL 將 embedding vector 按 input dispatcher 的路徑返還,如圖 8 所示。

2078053e-eb09-11ec-ba43-dac502259ad0.png

第三步:復用 input dispatcher 第一步驟的結(jié)果,將 embedding vector 進行重排序,讓其和輸入的 key 順序保持一致,如圖 9 所示。

20ac5ea6-eb09-11ec-ba43-dac502259ad0.png

可以看到, GPU 0 上輸入的[0, 1, 3, 5],最終被轉(zhuǎn)化為了[0.0, …], [0.1, …], [0.3, …], [0.5, …] 四個 embedding vector,雖然其中有 3 個 embedding vector 被存儲在 GPU 1 上,但是以一種對用戶透明的方式,在 GPU 0 上拿到了對應的 vector。在用戶看來,就好像整個 embedding table 都存在 GPU 0 上一樣。

4. Backward

在 backward 中,每個 GPU 會得到和 input 的 key 所對應的梯度,也就是數(shù)據(jù)并行的梯度。此時的梯度對應的 embedding vector 可能并不在當前 GPU 上,所以還需要做一步梯度的交換。這個步驟和 output dispatcher 的第三步驟中的工作流程的路徑完全相同,只是方向相反。仍然以前面的例子舉例,GPU 0 獲取了 key [0, 1, 3, 5]的梯度,我們把它們分別叫做 grad0, grad1, grad3, grad5;由于 grad1,grad3,grad5 對應的 embedding vector 在 GPU 1 上,所以我們把它們和 GPU 1 上的 grad4, grad6 進行交換,最終在得到了 GPU 0 上的梯度為[grad0, grad4, grad6],GPU 1 上的梯度為[grad1, grad3, grad5, grad5, gard7]。

結(jié)語

以上就是 SOK 將數(shù)據(jù)并行轉(zhuǎn)化為模型并行再轉(zhuǎn)回數(shù)據(jù)并行的過程,這整個流程都被封裝在了 SOK 的 Embedding Layer 中,用戶可以直接調(diào)用相關(guān)的 Python API 即可輕松完成訓練。

原文標題:Merlin HugeCTR Sparse Operation Kit 系列之二

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5039

    瀏覽量

    103316
  • 計算
    +關(guān)注

    關(guān)注

    2

    文章

    450

    瀏覽量

    38836
  • SOK
    SOK
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6338

原文標題:Merlin HugeCTR Sparse Operation Kit 系列之二

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    ADS1299器件手冊里的這個衰減怎么計算出來的?

    我的計算過程:33uV x 10.3/(952+10.3) = 0.35uV ?而不是要求的3.5uV,請指教
    發(fā)表于 11-18 06:41

    CPK為什么要大于1.33?一文詳解CPK計算

    原文標題:CPK為什么要大于1.33?一文詳解CPK計算
    的頭像 發(fā)表于 11-01 11:08 ?424次閱讀

    求助,TAS5731關(guān)于DRC和EQ的寄存器的計算和設(shè)置問題?

    TAS5731的文檔只描述了寄存器地址,但是并沒有說明這些寄存器如何計算設(shè)置,文檔里說明參考EVM的設(shè)計手冊,可是這手冊中也沒有具體計算和設(shè)置說明,只是說需要通過GE軟件計算。并沒有計算過程
    發(fā)表于 10-28 08:29

    計算滯回比較器的上下門限電壓

    請教各位大佬,如圖是過欠壓保護電路,過壓部分和欠壓部分的上下門限電壓怎么計算呢?以及二極管D6、D8的作用是什么? 如果能給出詳細計算過程那就太感激不盡了!!!
    發(fā)表于 09-20 15:44

    求助,以下恒流源電路Io的計算表達式怎么計算

    這個恒流源電路Io的計算表達式怎么計算,求給出詳細計算過程
    發(fā)表于 08-22 08:16

    正反饋式恒流源電路原理是什么?

    想問一下各位,這個的原理是什么?如果可以的話,能否給一個計算過程
    發(fā)表于 08-13 07:14

    SOK在手機行業(yè)的應用案例

    通過封裝 NVIDIA Merlin HugeCTR,Sparse Operation Kit(以下簡稱 SOK)使得 TensorFlow 用戶可以借助 HugeCTR 的一些相關(guān)特性和優(yōu)化加速 GPU 上的分布式 Embedding 訓練。
    的頭像 發(fā)表于 07-25 10:01 ?372次閱讀
    <b class='flag-5'>SOK</b>在手機行業(yè)的應用案例

    【《計算》閱讀體驗】量子計算

    相互作用,其中大部分振幅相互抵消,只留下幾個答案,甚至一個答案。測量這個答案,或者重等計算過程并記錄下答案的分布,就能得到所有2\"個輸入的信息。 另一個制造量子計算機的巨大困難來自量子的退
    發(fā)表于 07-13 22:15

    簡述遞歸神經(jīng)網(wǎng)絡(luò)的計算過程

    、時間序列預測等領(lǐng)域有著廣泛的應用。本文將詳細介紹RNN的計算過程。 基本概念 1.1 神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)是一種受人腦神經(jīng)元結(jié)構(gòu)啟發(fā)的計算模型,由大量的神經(jīng)元(或稱為節(jié)點)組成,這些神經(jīng)元通過權(quán)重連接在一起。每個神經(jīng)元接收輸入信號,通過激活函數(shù)處理信號,并將處
    的頭像 發(fā)表于 07-05 09:30 ?485次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計算過程和步驟

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的計算過程和步驟
    的頭像 發(fā)表于 07-03 09:36 ?656次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓練一個深度學習模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),使模型能夠更好地擬合數(shù)據(jù),提高預測或分類的準確性。本文將
    的頭像 發(fā)表于 07-01 16:13 ?1388次閱讀

    TouchGFX 中 MCU 負載的計算過程介紹

    從 TouchGFX Desinger 下載的 TBS(TouchGFX Board Setup)大都帶有 MCU 的 負載計算功能,那么如何在自己的板子上增加 MCU 負載計算功能呢?本文檔參考從 TouchGFX Designer 上下載的 STM32F746 的 T
    的頭像 發(fā)表于 05-24 13:24 ?507次閱讀
    TouchGFX 中 MCU 負載的<b class='flag-5'>計算過程</b>介紹

    全志T527芯片詳解計算性能與高清圖像編解碼

    全志T527芯片詳解計算性能與高清圖像編解碼
    的頭像 發(fā)表于 05-21 14:37 ?2974次閱讀
    全志T527芯片<b class='flag-5'>詳解</b>:<b class='flag-5'>計算</b>性能與高清圖像編解碼

    什么是寄生電感?如何計算過孔的寄生電感?

    對電路的性能產(chǎn)生影響,因此需要進行計算和考慮。電感是指導體或線圈對電流變化的響應能力。當電流通過導體或線圈時,會產(chǎn)生磁場,這個磁場又會導致導體或線圈內(nèi)部產(chǎn)生感應電動
    的頭像 發(fā)表于 03-15 08:19 ?2359次閱讀
    什么是寄生電感?如何<b class='flag-5'>計算過</b>孔的寄生電感?

    GD32 MCU ADC采樣率如何計算

    大家在使用ADC采樣的時候是否計算過ADC的采樣率,這個問題非常關(guān)鍵!
    的頭像 發(fā)表于 01-23 09:29 ?2674次閱讀
    GD32 MCU ADC采樣率如何<b class='flag-5'>計算</b>?
    主站蜘蛛池模板: 日xxxx| 成人午夜在线观看国产| 中文字幕1区| 午夜啪啪片| 免费又黄又爽的禁片视频| 草伊人| 18一20岁一级毛片| 国产高清色视频免费看的网址| 国产午夜精品一区二区理论影院| 欧美在线观看www| 色婷婷六月天| 在线免费看黄| 男女刺激性视频大片| 康熙古代高h细节肉爽文全文| 狠狠干狠狠色| 天天摸日日摸| 天堂福利视频| 日本黄在线| 欧洲妇女成人淫片aaa视频| 免费看日本黄色片| 美女黄色毛片免费看| 国产欧美一区二区三区观看| 国产色网址| 午夜资源网| 国产传媒在线观看视频免费观看| 国产精品天天干| 欧美成人免费夜夜黄啪啪| 老师啊灬啊灬用力啊快224视频| 午夜欧美福利| 久久伊人色| 国产色婷婷免费视频| 97久久人人| 天天做天天爽爽快快| 午夜8050| 日本全黄视频| 欧美极品在线观看| 一级视频片| 久久综合欧美| 日韩第十页| 国产成人在线影院| 嗯好舒服好爽好快好大|