在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton 系列文章(11):模型類別與調度器-1

NVIDIA英偉達企業解決方案 ? 來源:未知 ? 2023-01-11 06:35 ? 次閱讀

在 Triton 推理服務器的使用中,模型(model)類別與調度器(scheduler)、批量處理器(batcher)類型的搭配,是整個管理機制中最重要的環節,三者之間根據實際計算資源與使用場景的要求去進行調配,這是整個 Triton 服務器中比較復雜的部分。

在模型類別中有“無狀態(stateless)”、“有狀態(stateful)”“集成(ensemble)”三種,調度器方面則有“標準調度器(default scheduler)”“集成調度器(ensemble scheduler)”兩種,而標準調度器下面還有“動態批量處理器(dynamic batcher)”“序列批量處理器(sequence batcher)”兩種批量處理器。

模型類別與調度器/批量處理器之間存在一些關聯性,以下整理出一個簡單的配合表格,提供大家參考:

類別

調度器

批量處理器

使用場景

無狀態

標準調度器

動態批量處理器

面向各自獨立的推理模型

有狀態

標準調度器

序列批量處理器

處理存在交互關系的推理模型組

集成

集成調度器

創建復雜的工作流水線

接下去就要為這幾個管理機制的組合進行說明,由于內容較多并且不均衡,特別是“有狀態模型”與“集成模型”兩部分的使用是相對復雜的,因此這些組合會分為三篇文章來進行較為深入的說明。

1. 無狀態(Stateless)模式:

這是 Triton 默認的模型模式,最主要的要求就是“模型所維護的狀態不跨越推理請求”,也就是不存在與其他推理請求有任何交互關系,大部分處于最末端的獨立推理模型,都適合使用這種模式,例如車牌檢測最末端的將圖像識別成符號的推理、為車輛識別顏色/種類/廠牌的圖像分類等,還有 RNN 以及具有內部內存的類似模型,也可以是無狀態的。

2. 有狀態(Stateful)模式:

很多提供云服務的系統,需要具備同時接受多個推理請求去形成一系列推理的能力,這些推理必須路由到某些特定模型實例中,以便正確更新模型維護的狀態。此外,該模型可能要求推理服務器提供控制信號,例如指示序列的開始和結束。

Triton 服務器提供動態(dynamic)與序列(sequence)兩種批量處理器(batcher),其中序列批量處理器必須用于這種有狀態模式,因為序列中的所有推理請求都被路由到同一個模型實例,以便模型能夠正確地維護狀態。

序列批量處理程序還需要與模型相互傳遞信息,以指示序列的開始、結束、具有可執行推理請求的時間,以及序列的關聯編號(ID)。當對有狀態模型進行推理請求時,客戶端應用程序必須為序列中的所有請求提供相同的關聯編號,并且還必須標記序列的開始和結束。

下面是這種模式的控制行為有“控制輸入”、“隱式狀態管理”“調度策略”三個部分,本文后面先說明控制輸入的內容,另外兩個部分在下篇文章內講解。

(1) 控制輸入(control inputs)

為了使有狀態模型能夠與序列批處理程序一起正確運行,模型通常必須接受 Triton 用于與模型通信的一個或多個控制輸入張量。

模型配置的sequence_batching里的control_input部分,指示模型如何公開序列批處理程序應用于這些控件的張量。所有控件都是可選的,下面是模型配置的一部分,顯示了所有可用控制信號的示例配置:

05204e62-9136-11ed-bfe3-dac502259ad0.png

  • 開始(start):

這個輸入張量在配置中使用“CONTROL_SEQUENCE_START”指定,上面配置表明模型有一個名為“START”的輸入張量,其數據類型為 32 位浮點數,序列批量處理程序將在對模型執行推理時定義此張量。

START 輸入張量必須是一維的,大小等于批量大小,張量中的每個元素指示相應批槽中的序列是否開始。上面配置中“fp32_false_true”表示,當張量元素等于 0 時為“false(不開始)”、等于 1 時為“ture(開始)”

  • 結束(End):

結束輸入張量在配置中使用“CONTROL_SEQUENCE_END”指定,上面配置表明模型有一個名為“END”的輸入張量,具有 32 位浮點數據類型,序列批處理程序將在對模型執行推理時定義此張量。

END 輸入張量必須是一維的,大小等于批量大小,張量中的每個元素指示相應批槽中的序列是否開始。上面配置中“fp32_false_true”表示,當張量元素等于 0 時為“false(不結束)”、等于 1 時為“ture(結束)”。

  • 準備就緒(Ready):

就緒輸入張量在配置中使用“CONTROL_SEQUENCE_READY”指定,上面配置表明模型有一個名為“READY”的輸入張量,其數據類型為 32 位浮點數,序列批處理程序將在對模型執行推理時定義此張量。

READY 輸入張量必須是一維的,大小等于批量大小,張量中的每個元素指示相應批槽中的序列是否開始。上面配置中“fp32_false_true”表示,當張量元素等于 0 時為“false(未就緒)”、等于1時為“ture(就緒)”。

  • 關聯編號(Correlation ID):

關聯編號輸入張量在配置中使用“CONTROL_SEQUENCE_CORRID”指定,上面置表明模型有一個名為“CORRID”的輸入張量,其數據類型為無符號 64 位整數,序列批處理程序將在對模型執行推理時定義此張量。

CORRID 張量必須是一維的,大小等于批量大小,張量中的每個元素表示相應批槽中序列的相關編號。

(2) 隱式狀態管理(implicit State Management)

這種方式允許有狀態模型將其狀態存儲在 Triton 服務器中。當使用隱式狀態時,有狀態模型不需要在模型內部存儲推理所需的狀態。不過隱式狀態管理需要后端(backend)支持。目前只有 onnxruntime_backend 和 tensorrt_backend 支持隱式狀態。

下面是模型配置的一部分,在sequence_batching配置中的 state 部分,就是用于指示該模型正在使用隱式狀態:

sequence_batching {
  state  [
    {
       input_name: "INPUT_STATE"
       output_name: "OUTPUT_STATE"
       data_type: TYPE_INT32
      dims:  [ -1 ]
    }
  ]
}

這里做簡單的說明:

  • 字段說明:

  • input_name 字段:指定將包含輸入狀態的輸入張量的名稱;
  • output_name 字段:描述由包含輸出狀態的模型生成的輸出張量的名稱;
  • dims 字段:指定狀態張量的維度。

  • 執行要點:

  • 序列中第 i 個請求中模型提供的輸出狀態,將用作第 i+1 個請求中的輸入狀態;
  • 當 dims 字段包含可變大小的維度時,輸入狀態和輸出狀態的尺度不必匹配;
  • 出于調試目的,客戶端可以請求輸出狀態。為了實現這個目的,模型配置的輸出部分必須將輸出狀態(OUTPUT_STATE)列為模型的一個輸出;
  • 由于需要傳輸額外的張量,從客戶端請求輸出狀態可能會增加請求延遲。

默認情況下,序列中的啟動請求包含輸入狀態的未初始化數據。模型可以使用請求中的開始標志來檢測新序列的開始,并通過在模型輸出中提供初始狀態來初始化模型狀態,如果模型狀態描述中的 dims 部分包含可變尺度,則 Triton 在開始請求時將每個可變尺寸設置為“1”。對于序列中的其他非啟動請求,輸入狀態是序列中前一個請求的輸出狀態。

對于狀態初的初始化部分,有以下兩種狀況需要調整:

  • 啟動請求時:則模型將“OUTPUT_STATE”設置為等于“INPUT”張量;

  • 非啟動請求時:將“OUTPUT_STATE”設為“INPUT”和“INPUT_STATE”張量之和。

除了上面討論的默認狀態初始化之外,Triton 還提供了“從 0 開始”與“從文件導入”兩種初始化狀態的機制。下面提供兩種初始化的配置示例:

052f0830-9136-11ed-bfe3-dac502259ad0.png

兩個配置只有粗體部分不一樣,其余內容都是相同的,提供讀者做個參考。

以上是關于有狀態模型的“控制輸入”與“隱式狀態管理”的使用方式,剩下的“調度策略”部分,會在后文中提供完整的說明。


原文標題:NVIDIA Triton 系列文章(11):模型類別與調度器-1

文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3780

    瀏覽量

    91217

原文標題:NVIDIA Triton 系列文章(11):模型類別與調度器-1

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Triton編譯與GPU編程的結合應用

    Triton編譯簡介 Triton編譯是一種針對并行計算優化的編譯,它能夠自動將高級語言代碼轉換為針對特定硬件優化的低級代碼。
    的頭像 發表于 12-25 09:13 ?233次閱讀

    Triton編譯如何提升編程效率

    開發者能夠更快地開發出更高效的軟件。 1. 代碼優化 1.1 編譯時優化 Triton 編譯在編譯時進行了大量的代碼優化。這些優化包括但不限于: 指令選擇 :Triton 編譯
    的頭像 發表于 12-25 09:12 ?227次閱讀

    Triton編譯在高性能計算中的應用

    高性能計算(High-Performance Computing,HPC)是現代科學研究和工程計算中不可或缺的一部分。隨著計算需求的不斷增長,對計算資源的要求也越來越高。Triton編譯作為一種
    的頭像 發表于 12-25 09:11 ?234次閱讀

    Triton編譯的優化技巧

    在現代計算環境中,編譯的性能對于軟件的運行效率至關重要。Triton 編譯作為一個先進的編譯框架,提供了一系列的優化技術,以確保生成的
    的頭像 發表于 12-25 09:09 ?225次閱讀

    Triton編譯的優勢與劣勢分析

    Triton編譯作為一種新興的深度學習編譯,具有一系列顯著的優勢,同時也存在一些潛在的劣勢。以下是對Triton編譯
    的頭像 發表于 12-25 09:07 ?250次閱讀

    Triton編譯在機器學習中的應用

    1. Triton編譯概述 Triton編譯NVIDIA
    的頭像 發表于 12-24 18:13 ?385次閱讀

    Triton編譯的常見問題解決方案

    Triton編譯作為一款專注于深度學習的高性能GPU編程工具,在使用過程中可能會遇到一些常見問題。以下是一些常見問題的解決方案: 一、安裝與依賴問題 檢查Python版本 Triton編譯
    的頭像 發表于 12-24 18:04 ?466次閱讀

    Triton編譯支持的編程語言

    Triton編譯支持的編程語言主要包括以下幾種: 一、主要編程語言 Python :Triton編譯通過Python接口提供了對Triton
    的頭像 發表于 12-24 17:33 ?366次閱讀

    Triton編譯與其他編譯的比較

    Triton編譯與其他編譯的比較主要體現在以下幾個方面: 一、定位與目標 Triton編譯 : 定位:專注于深度學習中最核心、最耗時的
    的頭像 發表于 12-24 17:25 ?377次閱讀

    Triton編譯功能介紹 Triton編譯器使用教程

    Triton 是一個開源的編譯前端,它支持多種編程語言,包括 C、C++、Fortran 和 Ada。Triton 旨在提供一個可擴展和可定制的編譯框架,允許開發者添加新的編程語言
    的頭像 發表于 12-24 17:23 ?417次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務
    的頭像 發表于 09-09 09:19 ?483次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型系列,該系列包含最先進
    的頭像 發表于 09-06 14:59 ?329次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助開發者生成合成訓練數據

    使用NVIDIA Triton推理服務來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務來加速 AI 預測。
    的頭像 發表于 02-29 14:04 ?593次閱讀

    在AMD GPU上如何安裝和配置triton?

    最近在整理python-based的benchmark代碼,反過來在NV的GPU上又把Triton裝了一遍,發現Triton的github repo已經給出了對應的llvm的commit id以及對應的編譯細節,然后跟著走了一遍,也順利的安裝成功,只需要按照如下方式即可完
    的頭像 發表于 02-22 17:04 ?2413次閱讀
    在AMD GPU上如何安裝和配置<b class='flag-5'>triton</b>?

    利用NVIDIA產品技術組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學習模型,并借助NVIDIA Triton推理服務
    的頭像 發表于 01-17 09:30 ?706次閱讀
    主站蜘蛛池模板: 国产在线视欧美亚综合| 四虎在线观看一区二区| 五月婷婷欧美| 538porm在线看国产亚洲| 800免费资源网| 好紧好爽的午夜寂寞视频| 欧美成人午夜视频| 日本大片免费播放网站| 欧美婷婷| 国产一级特黄在线播放| 成人18视频拍拍拍拍拍拍| 99久久99久久久99精品齐| 午夜视频免费看| 欧美成人 色 图| 成年看片免费高清观看| 91色视| 午夜视频在线观看www中文| 天天艹在线| 成人牲交一极毛片| 免费又爽又黄1000禁片| 国产精品久久久久久久免费大片| 狼色在线视频| 亚洲激情四射| 乌克兰一级毛片| qvod高清在线成人观看| 欧美19禁| 涩久久| 好吊操免费视频| 黄a级免费| 伊人网在线观看| 国产精品午夜久久久久久99热| 91大神精品全国在线观看| 91视频-88av| 最新欧美精品一区二区三区| 亚洲国产成人久久一区久久 | 天天看天天操| 天天靠天天擦天天摸| 高清成年美女黄网站色大| 国产精品理论片在线观看| 中文成人在线| 性夜影院爽黄a爽免费视|