在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA大語言模型在推薦系統中的應用實踐

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 2025-03-05 09:30 ? 次閱讀

生成式推薦系統優勢

推薦系統的主要任務在于根據用戶的過往行為預測其潛在興趣點,并據此推薦相應的商品。在傳統的推薦系統中,當處理用戶請求時,會觸發多個召回模塊,例如熱門商品召回、個性化召回以及深度召回等,從而召回大量候選商品。之后,系統會借助相對簡單的粗排模型對這些候選集進行初步篩選,以縮小候選范圍,最后通過精排和重排模型,確定最終返回給用戶的推薦結果。

隨著大語言模型 (LLM) 在推薦系統中的廣泛應用,生成式推薦系統相較于傳統推薦系統可展現出以下顯著優勢:

推薦流程的簡化:生成式推薦系統從多級過濾的判別式 (discriminative-based) 架構轉變成單級過濾的生成式 (generative-based) 架構。通過直接生成推薦結果,大幅簡化了推薦流程,顯著降低了系統復雜性。

知識融合:LLM 具備更強的泛化能力和穩定性。借助其豐富的世界知識和推理能力,生成式推薦系統可以突破傳統電商平臺在商品和用戶建模時面臨的數據局限。在新用戶、新商品的冷啟動以及新領域的推薦場景中,生成式推薦系統可以提供更優質的推薦效果和更出色的遷移性能。

規模定律(Scaling Law):傳統的點擊率 (CTR) 稀疏模型在模型規模擴大時,往往會面臨邊際收益遞減的問題。而 LLM 所表現出的規模定律屬性,為模型的有效擴展提供了一種新路徑,即模型性能隨著規模的增加而持續提升。這意味著通過擴大模型規模,可以獲得更優的推薦效果,從而突破傳統模型的性能瓶頸。

以下是基于京東廣告場景落地的生成式召回應用,介紹大語言模型在推薦系統中的實踐。

生成式召回方案介紹

1. 生成式召回算法與實現步驟

生成式推薦包含兩個接地 (grounding) 過程:一是將商品與自然語言連接起來。二是將用戶行為與目標商品連接起來。具體實現步驟如下:

商品表示:直接生成文檔或商品描述在實際中幾乎是不可行的。因此采用短文本序列(即語義 ID)來表征商品。選取高點擊商品的標題、類目等語義信息,經由編碼器模型獲得向量表示,再利用 RQ-VAE 對向量進行殘差量化,最終得到商品的語義 ID。例如,商品:“XXX 品牌 14+ 2024 14.5 英寸輕薄本 AI 全能本高性能獨顯商務辦公筆記本電腦”可表示為:

用戶畫像與行為建模:通過構建提示詞來定義任務,并將用戶畫像、用戶歷史行為數據等用戶相關信息轉化為文本序列。例如:“用戶按時間順序點擊過這些商品:,,

你預測用戶下一個可能點擊的商品是?”。

模型訓練:確定生成模型的輸入(用戶表示)和輸出(商品物料標識符)后,即可基于生成式 Next Token Prediction 任務進行模型訓練。

模型推理:經過訓練后,生成模型能夠接收用戶信息并預測相應的商品語義 ID,這些語義標識可以對應數據集中的實際商品 ID。

2. LLM 模型部署的工程適配

傳統基于深度學習的召回模型,參數量通常在幾十萬到幾千萬之間,且模型結構以 Embedding 層為主。而基于 LLM 實現的生成式召回模型,參數規模大幅提升至 0.5B 至 7B 之間,模型結構主要由 Dense 網絡構成。由于參數量顯著增加,LLM 在推理過程中所需的計算資源相比于傳統模型大幅提升,通常高出幾十倍甚至上百倍。因此,LLM 在處理復雜任務時具備更強的表現力,但同時也對計算能力有著更高的要求。

為了將如此龐大的算力模型部署至線上環境,并確保其滿足毫秒級實時響應的需求,同時在嚴格控制資源成本的前提下實現工業化應用,我們必須對在線推理架構進行極致的性能優化。

4846fbf8-f82e-11ef-9310-92fbcf53809c.png

圖 1: 在線推理架構

該圖片來源于京東,若您有任何疑問或需要使用該圖片,請聯系京東

3. 基于 TensorRT-LLM 的 LLM構建優化及系統部署

在建模封裝層,通過TensorRT-LLM實現 LLM 模型的構建與優化,并將其無縫整合到現有生態系統中,利用 PythonTensorFlow API 構建端到端推理圖。基于 TensorFlow 原生算子及現有業務的自定義 TensorFlow 算子庫(例如用戶行為特征處理算子),實現算法的靈活建模。

在推理優化層,通過應用 Inflight Batching、Constrained Sampling、Flash Attention 及 Paged Attention 等加速方案,最大化提升單卡吞吐量并降低推理延遲。

在系統部署方面,為了最大程度利用時間資源,生成式召回一期的部署采用了與傳統多分支召回模塊并行的方式。由于簡化了推理流程,相較于傳統召回方式,生成式召回的資源消耗更少,運行時間更短,并且召回效果更優。

48671136-f82e-11ef-9310-92fbcf53809c.png

圖 2:生成式召回與傳統多路召回并行

該圖片來源于京東,若您有任何疑問或需要使用該圖片,請聯系京東

4. 生成式召回一期

在推薦廣告及搜索廣告的成功應用

目前,生成式召回一期已在京東推薦廣告及搜索廣告等主要業務線成功實施。在推薦廣告方面,基于生成式模型的參數規模及語義理解優勢,AB 實驗結果顯示商品點擊率與消費得到了顯著提升。在搜索廣告方面,LLM 所具備的語義理解能力顯著提升了對查詢與商品的認知能力,尤其是在處理搜索中的長尾查詢時,填充率有明顯提升,AB 實驗也取得了點擊率與消費幾個百分點的收益增長。

通過 TensorRT-LLM 進行推理優化加速:

降低延遲并提升吞吐

在原先的模型推理方案中,線上業務的低延遲要求往往較難達成。然而,在切換到 TensorRT-LLM 之后,借助其豐富的優化特性,不僅模型推理延遲達到線上業務要求,同時吞吐也有了顯著提升。

在 NVIDIA GPU 上進行的測試顯示,與基線對比,在限制 100 毫秒推理耗時的廣告場景下,采用 TensorRT-LLM 進行推理的吞吐量提升了五倍以上。這相當于將部署成本降至原來的五分之一。

4872d534-f82e-11ef-9310-92fbcf53809c.png

圖 3:TensorRT-LLM 和基線的對比 (Qwen2-1.5B | beam 5 | vocab size 15W | input 150 | output 4) ,數據來自京東廣告團隊測試結果

該圖片來源于京東,若您有任何疑問或需要使用該圖片,請聯系京東

針對這個特定的應用場景,合理配置 beam width 對檢索結果有著重要影響。一般來說,較高的 beam width 能夠增加候選商品的數量,從而提高檢索的準確性。例如,在需要返回 300 個商品時,若 beam width 設置較低,每個 code 就需要對應更多的商品 id,這無疑會導致檢索的精度降低。

為了解決這個問題,NVIDIA DevTech 技術團隊進行了有針對性的二次開發和優化工作,從而讓 TensorRT-LLM 支持更大范圍的 beam width,及時滿足了線上的業務需求。

持續優化技術以實現模型效率效果提升

未來,我們將持續在生成式推薦領域深入探索,重點聚焦以下幾個方向:

提升模型規模以滿足實時推理需求

目前,由于算力、時間消耗和成本等客觀條件的限制,生成式推薦系統在實時推理中的可部署模型規模相對較小(約 0.5B 至 6B 參數之間)。然而,離線實驗的數據表明,擴大模型規模可以顯著提升線上推薦效果。這意味著對在線性能優化提出了更高要求。為了支持更大規模的模型在線部署,同時不顯著增加成本,我們需要進一步優化模型結構和推理效率。例如,采用模型剪枝、量化等模型壓縮技術,優化采樣檢索算法效率,以及高效的分布式推理架構。

擴展用戶行為輸入以提升模型效果

實驗表明,輸入更長的用戶歷史行為序列能夠顯著提高模型的推薦效果,但同時也會增加計算資源消耗和推理時間。因此,我們需要在效果提升和性能開銷之間找到平衡。優化方案包括:

a. Token 序列壓縮:對輸入序列進行壓縮(例如去除冗余信息、合并相似行為等),減少序列長度,同時保留關鍵信息。

b. 用戶行為 KV 緩存復用:在推理過程中,針對用戶行為特征有序遞增的特點,對長期行為進行離線計算并進行緩存,在線部分負責計算實時行為,從而避免重復計算,最大化利用算力,提高推理效率。

融合稀疏與稠密模型以實現聯合推理

隨著模型參數量的增加,我們可以將稀疏的傳統 CTR 模型與稠密的 LLM 模型進行聯合推理。稀疏模型擅長處理高維度的稀疏特征,計算效率高;而稠密模型可以捕獲復雜的非線性特征和深層次的語義信息。通過對兩者的優勢進行融合,構建一個既高效又精確的推薦系統。

針對于稀疏訓練場景, NVIDIA 可以提供DynamicEmb方案。DynamicEmb 是一個 Python 包,專門針對推薦系統提供稀疏訓練方案,包括模型并行的 dynamic embedding 表和 embedding lookup 功能。

DynamicEmb 利用 HierarchicalKV 哈希表后端,將鍵值(特征-嵌入)對存儲在 GPU 的高帶寬內存 (HBM) 以及主機內存中,而 embedding lookup 部分則主要利用了 EMBark 論文中的部分算法。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5160

    瀏覽量

    104937
  • 模型
    +關注

    關注

    1

    文章

    3438

    瀏覽量

    49592
  • 推薦系統
    +關注

    關注

    1

    文章

    44

    瀏覽量

    10139
  • LLM
    LLM
    +關注

    關注

    1

    文章

    315

    瀏覽量

    566

原文標題:NVIDIA TensorRT-LLM 在推薦廣告及搜索廣告的生成式召回的加速實踐

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦

    名單公布!【書籍評測活動NO.31】大語言模型:原理與工程實踐

    的能力將對千行百業產生深遠影響,尤其優化業務流程和重塑組織結構方面。 然而,研究和實踐過程,我們遇到了一個主要挑戰:市場上缺乏大語言
    發表于 03-18 15:49

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐

    處理預訓練架構Transformer,以及這些技術現實世界的如何應用。通過具體案例的分析,作者展示了大語言模型
    發表于 04-30 15:35

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    。這一過程的不斷迭代使大語言模型語言理解和生成能力逐步提升。大語言模型自然
    發表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    的,與上下文語境無關,因此不適用于一詞多義的情況。例如,“蘋果”“我去吃個蘋果”與“這個蘋果手機好用嗎”這兩個句子的語義明顯不同,但靜態詞向量語言模型僅利用同一個向量表示詞的語義,
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》2.0

    《大語言模型“原理與工程實踐”》是關于大語言模型內在機理和應用實踐的一次深入探索。作者不僅深入討
    發表于 05-07 10:30

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    和多樣性。高質量數據能確保模型穩定收斂,而數據的多樣性則有助于模型學習廣泛的通用能力,如文本生成、信息抽取、問答和編程等。此外,數據的多樣性對于確保模型實際應用
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的評測

    和安全性。行業模型的評測則針對特定領域的能力,整體能力的評測則從宏觀角度評估模型的通用性。基座模型的評測,除了自回歸損失和困惑度等指標外
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的應用

    類任務上表現出色,甚至零樣本條件下也能取得良好效果。另一類則需要逐步推理才能完成的任務,類似于人類的系統2,如數字推理等。然而,隨著參數量的增加,大語言模型在這類任務上并未出現質的飛
    發表于 05-07 17:21

    語言模型:原理與工程實踐+初識2

    前言 深度學習是機器學習的分支,而大語言模型是深度學習的分支。機器學習的核心是讓計算機系統通過對數據的學習提高性能,深度學習則是通過創建人工神經網絡處理數據。近年人工神經網絡高速發展,引發深度學習
    發表于 05-13 00:09

    Ubuntu上使用Nvidia GPU訓練模型

    問題最近在Ubuntu上使用Nvidia GPU訓練模型的時候,沒有問題,過一會再訓練出現非常卡頓,使用nvidia-smi查看發現,顯示GPU的風扇和電源報錯:解決方案自動風扇控制
    發表于 01-03 08:24

    NVIDIA SWI UNETR模型醫療的應用

    NVIDIA 的 SWI UNETR 模型 NVIDIA DGX-1 團簇上使用八個 GPU 進行訓練,初始學習率為 0 。 0008 ,并使用 AdamW 優化算法。
    的頭像 發表于 04-06 16:07 ?3683次閱讀
    <b class='flag-5'>NVIDIA</b> SWI UNETR<b class='flag-5'>模型</b><b class='flag-5'>在</b>醫療<b class='flag-5'>中</b>的應用

    NVIDIA NeMo最新語言模型服務幫助開發者定制大規模語言模型

    NVIDIA NeMo 大型語言模型(LLM)服務幫助開發者定制大規模語言模型NVIDIA B
    發表于 09-22 10:42 ?982次閱讀

    KT利用NVIDIA AI平臺訓練大型語言模型

    韓國先進的移動運營商構建包含數百億個參數的大型語言模型,并使用 NVIDIA DGX SuperPOD 平臺和 NeMo Megatron 框架訓練該模型
    的頭像 發表于 09-27 09:24 ?1366次閱讀

    現已公開發布!歡迎使用 NVIDIA TensorRT-LLM 優化大語言模型推理

    能。該開源程序庫現已作為 NVIDIA NeMo 框架的一部分, /NVIDIA/TensorRT-LLM GitHub 資源庫免費提供。 大
    的頭像 發表于 10-27 20:05 ?1220次閱讀
    現已公開發布!歡迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-LLM 優化大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優化從 PC 到云端的
    的頭像 發表于 04-28 10:36 ?751次閱讀
    主站蜘蛛池模板: 2021久久精品国产99国产精品 | 亚洲视频一区网站 | 中文字幕在线一区二区在线 | 日韩1页| 不卡无毒免费毛片视频观看 | 天天拍拍天天爽免费视频 | 五月婷婷激情综合 | 午夜在线观看网站 | 狠狠色丁香六月色 | 欧美在线观看www | 午夜在线播放 | 9久久99久久久精品齐齐综合色圆 | 亚洲视频1区 | 51视频在线观看免费国产 | 激情福利网站 | 国语自产免费精品视频一区二区 | 色多多免费视频 | 最近的中文字幕免费动漫视频 | 色中色综合网 | 中文字幕一区精品欧美 | 在线免费观看你懂的 | 久久青草国产手机看片福利盒子 | 午夜亚洲国产精品福利 | 色婷婷激婷婷深爱五月小说 | 六月婷婷网视频在线观看 | 国产成人精品高清在线 | 成人牲交一极毛片 | 色偷偷7777www人 | 色视频免费版高清在线观看 | 伊人久久亚洲综合 | 清纯唯美亚洲综合一区 | 久久久夜 | 欧美午夜片 | 欧美黑人性色黄在线视频 | 一二三区在线观看 | 又黑又长黑人欧美三级 | 一区二区三区欧美在线 | 看毛片的网站 | 午夜一级影院 | 免费三级pq | 久久精品视频99精品视频150 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品