在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用NVIDIA Triton 推理服務器來運行推理管道

jf_pJlTbmA9 ? 來源: NVIDIA ? 作者: NVIDIA ? 2023-07-05 16:30 ? 次閱讀

在許多生產級機器學習( ML )應用程序中,推理并不局限于在單個 ML 模型上運行前向傳遞。相反,通常需要執(zhí)行 ML 模型的管道。例如,一個由三個模塊組成的對話式人工智能管道:一個將輸入音頻波形轉換為文本的自動語音識別( ASR )模塊,一個理解輸入并提供相關響應的大型語言模型( LLM )模塊,以及一個從 LLM 輸出產生語音的文本到語音( TTS )模塊。

或者,考慮一個文本到圖像的應用程序,其中管道由 LLM 和擴散模型組成,它們分別用于對輸入文本進行編碼和從編碼的文本合成圖像。此外,許多應用程序在將輸入數(shù)據(jù)饋送到 ML 模型之前需要對其進行一些預處理步驟,或者對這些模型的輸出進行后處理步驟。例如,輸入圖像在被饋送到計算機視覺模型之前可能需要被調整大小、裁剪和解碼,或者文本輸入在被饋送給 LLM 之前需要被標記化。

近年來, ML 模型中的參數(shù)數(shù)量激增,它們越來越多地被要求為龐大的消費者群體提供服務;因此,優(yōu)化推理管道變得比以往任何時候都更加重要。 NVIDIA TensorRT 和 FasterTransformer 等工具在 GPU s 上執(zhí)行推理時,優(yōu)化單個深度學習模型,以獲得更低的延遲和更高的吞吐量。

然而,我們的首要目標不是加快單個 ML 模型的推理,而是加快整個推理管道。例如,當在 GPU 上服務模型時,在 CPU 上具有預處理和后處理步驟會降低整個管道的性能,即使模型執(zhí)行步驟很快。推理管道最有效的解決方案是使預處理、模型執(zhí)行和后處理步驟都在 GPU s 上運行。這種端到端推理流水線在 GPU 上的效率來自以下兩個關鍵因素。

在流水線步驟之間,數(shù)據(jù)不需要在 CPU (主機)和 GPU (設備)之間來回復制。

GPU 強大的計算能力被用于整個推理管道。

NVIDIA Triton Inference Server 是一款開源推理服務軟件,用于在 CPU 和 GPU 上大規(guī)模部署和運行模型。在許多功能中, NVIDIA Triton 支持 ensemble models ,使您能夠將推理管道定義為有向非循環(huán)圖( DAG )形式的模型集合。 NVIDIA Triton 將處理整個管道的執(zhí)行。集成模型定義了如何將一個模型的輸出張量作為輸入饋送到另一個模型。

使用 NVIDIA Triton 集成模型,您可以在 GPU 或 CPU 上運行整個推理管道,也可以在兩者的混合上運行。當涉及預處理和后處理步驟時,或者當管道中有多個 ML 模型,其中一個模型的輸出饋送到另一個模型時,這是有用的。對于管道包含循環(huán)、條件或其他自定義邏輯的用例, NVIDIA Triton 支持 Business Logic Scripting (BLS) 。

這篇文章只關注整體模型。它將引導您完成使用不同框架后端創(chuàng)建具有多個模型的端到端推理管道的步驟。 NVIDIA Triton 提供了使用多個框架后端構建模型管道的靈活性,并在 GPU 或 CPU 上運行它們,或兩者混合運行。我們將探索以下三種管道運行方式。

整個管道在 CPU 上執(zhí)行。

預處理和后處理步驟在 CPU 上運行,模型執(zhí)行在 GPU 上運行。

整個管道在 GPU 上執(zhí)行。

我們還將強調使用 NVIDIA Triton 推理服務器在 GPU 上運行整個推理管道的優(yōu)勢。我們專注于 CommonLit Readability Kaggle challenge ,用于預測 3-12 年級文學段落的復雜度,使用 NVIDIA Triton 進行整個推理。請注意, NVIDIA Triton 222.11 用于本博客文章的目的。您也可以使用 NVIDIA Triton 的更高版本,前提是您在后端使用匹配的版本(表示為),以避免可能的兼容性錯誤。

模型創(chuàng)建

對于這項任務,訓練兩個獨立的模型:使用 PyTorch 訓練的 BERT-Large 和使用 cuML 訓練的隨機森林回歸器。將這些型號命名為bert-large和cuml。這兩個模型都會將經過預處理的摘錄作為輸入,并輸出分數(shù)或復雜度。

作為第一個模型,從預訓練的 Hugging Face 模型中微調基于 transformer 的bert-large模型 bert-large-uncased 其具有 340M 個參數(shù)。通過添加一個線性層來微調任務的模型,該線性層將 BERT 的最后一個隱藏層映射到單個輸出值。

使用均方根損失、帶有權重衰減的 Adam 優(yōu)化器和 5 倍交叉驗證進行微調。通過在模型中傳遞示例輸入并使用以下命令跟蹤模型,將模型序列化為 TorchScript 文件(名為model.pt):

traced_script_module = torch.jit.trace(bert_pytorch_model,          
                      (example_input_ids, example_attention_mask))
traced_script_module.save("model.pt")

作為第二個模型,使用 cuML 隨機森林回歸器,其中有 100 棵樹,每棵樹的最大深度為 16 。為基于樹的模型生成以下特征:每個摘錄的單詞數(shù)、每個摘錄的不同單詞數(shù)、標點符號數(shù)、每個節(jié)選的句子數(shù)、每個句子的平均單詞數(shù)、每次摘錄的停止單詞數(shù)、每句子的平均停止單詞數(shù), N 最常出現(xiàn)的單詞在語料庫中的頻率分布,以及 N 最不頻繁單詞在語料庫中的頻率分布。

使用 N=100 ,這樣隨機森林總共包含 207 個特征。通過使用以下命令轉換 cuML 模型實例,將經過訓練的 cuML 模型序列化為 Treeite 檢查點(名為checkpoint.tl):

cuml_model.convert_to_treelite_model().to_treelite_checkpoint('checkpoint.tl')

請注意,與模型關聯(lián)的 Treelite 版本需要與用于推斷的 NVIDIA Triton 容器中的 Treeliet 版本相匹配。

在 NVIDIA Triton 上運行 ML 模型

要在 NVIDIA Triton 中部署的每個模型都必須包括一個模型配置。默認情況下,當模型元數(shù)據(jù)可用時, NVIDIA Triton 將嘗試使用模型元數(shù)據(jù)自動創(chuàng)建配置。在模型元數(shù)據(jù)不足的情況下,可以手動提供模型配置文件,也可以覆蓋推斷的設置。有關更多詳細信息,請參閱 GitHub 上的 triton-inference-server/server 。

要在 NVIDIA Triton 上運行 PyTorch 格式的 BERT Large ,請使用 PyTorch (LibTorch) backend 。將以下行添加到模型配置文件中以指定此后端:

backend: "pytorch"

要在 NVIDIA Triton 上運行基于樹的隨機林模型,請使用 FIL (Forest Inference Library) backend ,在模型配置文件中添加以下內容:

backend: "fil"

此外,在模型配置文件中添加以下行,以指定所提供的模型為 Treeite 二進制格式:

parameters {
    key: "model_type"
    value: { string_value: "treelite_checkpoint" } 
}

最后,在每個模型配置文件中,包括instance_group[{kind:KIND_GPU}]或instance_group[{kind:KIND_CPU}],這取決于模型是在 GPU 還是 CPU 上提供服務。

到目前為止,生成的模型存儲庫目錄結構如下:

.
├── bert-large
│   ├── 1
│   │   └── model.pt
│   └── config.pbtxt
└── cuml
    ├── 1
    │   └── checkpoint.tl
    └── config.pbtxt

預處理和后處理

預處理和后處理可以在 NVIDIA Triton 服務器之外執(zhí)行,也可以作為 NVIDIA Triton 中模型集合的一部分進行合并。對于本例,預處理和后處理由 Python 中執(zhí)行的操作組成。使用 Python backend 作為集成的一部分來運行這些操作。

如果 NVIDIA Triton 服務器容器中提供的默認 Python 版本可以運行 Python model ,則可以忽略以下部分,直接跳到下面標題為“比較推理管道”的部分否則,您將需要創(chuàng)建一個自定義 Python 后端存根和一個自定義執(zhí)行環(huán)境,如下所述。

自定義 Python 后端存根

Python 后端使用存根進程將model.py文件連接到 NVIDIA Triton C++核心。 Python 后端可以使用安裝在當前[ZGK8環(huán)境(虛擬環(huán)境或Conda環(huán)境)或全局 Python 環(huán)境中的庫。

請注意,這假設用于編譯后端存根的 Python 版本與用于安裝依賴項的版本相同。寫入時使用的 NVIDIA Triton 容器中的默認 Python 版本為 3.8 。如果需要運行預處理和后處理的 Python 版本與 NVIDIA Triton 容器中的版本不匹配,則需要編譯 custom Python backend stub 。

要創(chuàng)建自定義 Python 后端存根,請在 NVIDIA conda容器內安裝conda、cmake、rapidjson和 Triton 。接下來,創(chuàng)建一個 Conda 虛擬環(huán)境(請參見 documentation ),并使用以下命令激活它:

conda create -n custom_env python=
conda init bash
bash
conda activate custom_env

將替換為感興趣的版本,例如 3.9 。然后克隆 Python 后端回購,并使用以下代碼編譯 Python 后端存根:

git clone https://github.com/triton-inference-server/python_backend -b r
cd python_backend
mkdir build && cd build
cmake -DTRITON_ENABLE_GPU=ON -DCMAKE_INSTALL_PREFIX:PATH=`pwd`/install ..
make triton-python-backend-stub

請注意,必須替換為 NVIDIA Triton 容器版本。運行上面的命令將創(chuàng)建名為triton-python-backend-stub的存根文件。這個 Python 后端存根現(xiàn)在可以用來加載安裝有匹配版本[ZGK8的庫。

自定義執(zhí)行環(huán)境

如果您想為不同的 Python 型號使用不同的 Python 環(huán)境,您需要創(chuàng)建一個 custom execution environment 。要為 Python 模型創(chuàng)建自定義執(zhí)行環(huán)境,第一步是在已經激活的 Conda 環(huán)境中安裝任何必要的依賴項。然后運行conda-pack將我們的自定義執(zhí)行環(huán)境打包為 tar 文件。這將創(chuàng)建一個名為custom_env.tar.gz的文件。

在撰寫本文時, NVIDIA Triton 僅支持conda-pack用于捕獲執(zhí)行環(huán)境。請注意,當在 NVIDIA Triton Docker 容器中工作時,容器中包含的包也會在conda-pack創(chuàng)建的執(zhí)行環(huán)境中捕獲。

使用 Python 后端存根和自定義執(zhí)行環(huán)境

在創(chuàng)建 Python 后端存根和自定義執(zhí)行環(huán)境后,將兩個生成的文件從容器復制到模型存儲庫所在的本地系統(tǒng)。在本地系統(tǒng)中,將存根文件復制到每個需要使用存根的 Python 模型(即預處理和后處理模型)的模型目錄中。對于這些模型,目錄結構如下:

model_repository
 ├── postprocess
 │   ├── 1
 │   │   └── model.py
 │   ├── config.pbtxt
 │   └── triton_python_backend_stub
 └── preprocess
     ├── 1
     │   └── model.py
     ├── config.pbtxt
     └── triton_python_backend_stub

對于預處理和后處理模型,還需要在配置文件中提供自定義執(zhí)行環(huán)境的 tar 文件的路徑。例如,預處理模型的配置文件將包括以下代碼:

name: "preprocess"
backend: "python"

...
parameters: {
  key: "EXECUTION_ENV_PATH",
  value: {string_value: "path/to/custom_env.tar.gz"}
}

要使此步驟生效,請將custom_env.tar.gz存儲在 NVIDIA Triton 推理服務器容器可以訪問的路徑中。

用于預處理和后處理的 model.py 文件的結構

每個 Python 模型都需要遵循 documentation 中描述的特定結構。在model.py文件中定義以下三個功能:

1. initialize(可選,在加載模型時運行):用于在推理之前加載必要的組件,以減少每個客戶端請求的開銷。特別是對于預處理,加載 cuDF tokenizer ,它將用于標記基于 BERT 的模型的摘錄。還加載用于隨機森林特征生成的停止詞列表,作為對基于樹的模型的輸入的一部分。

2 .execute(必需,請求推理時運行):接收推理請求,修改輸入,并返回推理響應。由于preprocess是推理的入口點,如果要對 GPU 執(zhí)行推理,則需要將輸入移動到[Z1K1’。

通過創(chuàng)建cudf.Series的實例將摘錄輸入張量移動到 GPU ,然后利用initialize中加載的 cuDF 標記器在[Z1K1’上標記整批摘錄。

類似地,使用字符串操作生成基于樹的特征,然后使用在 GPU 上操作的CuPY數(shù)組對特征進行歸一化。要在 GPU 上輸出張量,請使用toDlpack和from_dlpack(參見 documentation )將張量封裝到推理響應中。

最后,為了保持張量在 GPU 上,并避免在集合中的步驟之間復制到 CPU ,請將以下內容添加到每個模型的配置文件中:

parameters: {
 key: "FORCE_CPU_ONLY_INPUT_TENSORS"
 value: {
   string_value:"no"
 }
}

postprocess的輸入分數(shù)已經在 GPU 上了,所以只需將分數(shù)與CuPY數(shù)組再次組合,并輸出最終的管道分數(shù)。對于在 CPU 上進行后處理的情況,在預處理步驟中將ML模型的輸出移動到[Z1K2’。

3. finalize(可選,在卸載模型時運行):使您能夠在從 NVIDIA Triton 服務器卸載模型之前完成任何必要的清理。

推理管道比較

本節(jié)介紹了不同的推理管道,并從延遲和吞吐量方面對它們進行了比較。

CPU 上的預處理和后處理, GPU 上的 ML 模型推理

此設置使用 NVIDIA Triton 對 ML 模型執(zhí)行推理,同時在客戶端所在的本地機器上使用 CPU 執(zhí)行預處理和后處理(圖 1 )。在預處理模型中,對于給定的一批文本摘錄,使用 BERT 標記器對摘錄進行標記,并為 cuML 模型生成基于樹的特征。

然后將預處理模型的輸出作為推理請求發(fā)送給 NVIDIA Triton 。 NVIDIA Triton 然后對 GPU 上的 ML 模型執(zhí)行推理并返回響應。在 CPU 上本地對該響應進行后處理,以生成輸出分數(shù)。

pipeline-NVIDIA-Triton-CPU-processing.png 圖 1 。在 NVIDIA Triton 推理服務器上運行 ML 模型的管道設置,其中預處理和后處理步驟在 CPU 上本地執(zhí)行

在 GPU 上執(zhí)行 NVIDIA Triton 中的整個管道

在此設置中,使用 NVIDIA Triton 在 GPU 上執(zhí)行整個推理管道。對于這個例子, NVIDIA Triton 中的數(shù)據(jù)管道和流可以在圖 2 中看到。

pipeline-NVIDIA-Triton-ensemble-GPU.png 圖 2 :管道設置,包括預處理、模型執(zhí)行和后處理,所有這些都作為 NVIDIA Triton 集成在 GPU 上執(zhí)行

管道從一個預處理模型開始,該模型將文本摘錄作為輸入,為 BERT 標記摘錄,并為隨機森林模型提取特征。接下來,在預處理模型的輸出上同時運行兩個 ML 模型,每個模型生成指示輸入文本的復雜度的分數(shù)。最后,在后處理步驟中對得到的分數(shù)進行組合。

要讓 NVIDIA Triton 運行上面的執(zhí)行管道,請創(chuàng)建一個名為ensemble_all的 ensemble model 。該模型與任何其他模型具有相同的模型目錄結構,只是它不存儲任何模型,并且只由一個配置文件組成。集成模型的目錄如下所示:

├── ensemble_all
 │   ├── 1
 │   └── config.pbtxt

在配置文件中,首先使用以下腳本指定集成模型名稱和后端:

name: "ensemble_all"
backend: "ensemble"

接下來,定義集合的端點,即集合模型的輸入和輸出:

input [
  {
    name: "excerpt"
    data_type: TYPE_STRING
    dims: [ -1 ]
  },
  {
    name: "BERT_WEIGHT"
    data_type: TYPE_FP32
    dims: [ -1 ]
  }
]
output {
    name: "SCORE"
    data_type: TYPE_FP32
    dims: [ 1 ]
  }

管道的輸入是可變長度的,因此使用 -1 作為尺寸參數(shù)。輸出是一個單浮點數(shù)。

要創(chuàng)建通過不同模型的管道和數(shù)據(jù)流,請包括ensemble_scheduling部分。第一個模型被稱為preprocess,它將摘錄作為輸入,并輸出 BERT 令牌標識符和注意力掩碼以及樹特征。調度的第一步顯示在模型配置的以下部分中:

ensemble_scheduling {
  step [
    {
      model_name: "preprocess"
      model_version: 1
      input_map {
        key: "INPUT0"
        value: "excerpt"
      }
      output_map {
        key: "BERT_IDS"
        value: "bert_input_ids",
      }
      output_map {
        key: "BERT_AM"
        value: "bert_attention_masks",
      }
      output_map {
        key: "TREE_FEATS"
        value: "tree_feats",
      }
    },

step部分中的每個元素都指定了要使用的模型,以及如何將模型的輸入和輸出映射到集合調度器識別的張量名稱。然后使用這些張量名稱來識別各個輸入和輸出。

例如,step中的第一個元素指定應使用preprocess模型的版本一,其輸入"INPUT0"的內容由"excerpt"張量提供,其輸出"BERT_IDS"的內容將映射到"bert_input_ids"張量以供以后使用。類似的推理適用于preprocess的其他兩個輸出。

繼續(xù)在配置文件中添加步驟以指定整個管道,將preprocess的輸出傳遞到bert-large和cuml的輸入:

{
      model_name: "bert-large"
      model_version: 1
      input_map {
        key: "INPUT__0"
        value: "bert_input_ids"
      }
      input_map {
        key: "INPUT__1"
        value: "bert_attention_masks"
      }
      output_map {
        key: "OUTPUT__0"
        value: "bert_large_score"
      }
    },

最后,通過在配置文件中添加以下行,將這些分數(shù)中的每一個傳遞到后處理模型,以計算分數(shù)的平均值并提供單個輸出分數(shù),如下所示:

{
      model_name: "postprocess"
      model_version: 1
      input_map {
        key: "BERT_WEIGHT_INPUT"
        value: "BERT_WEIGHT"
      }
      input_map {
        key: "BERT_LARGE_SCORE"
        value: "bert_large_score"
      }
      input_map {
        key: "CUML_SCORE"
        value: "cuml_score"
      }
      output_map {
        key: "OUTPUT0"
        value: "SCORE"
      }
    }
  }
]

在集成模型的配置文件中調度整個管道的簡單性證明了使用 NVIDIA Triton 進行端到端推理的靈活性。要添加另一個模型或添加另一數(shù)據(jù)處理步驟,請編輯集成模型的配置文件并更新相應的模型目錄。

請注意,集成配置文件中定義的max_batch_size必須小于或等于每個模型中定義的max_batch_size。整個模型目錄,包括集成模型,如下所示:

├── bert-large
│   ├── 1
│   │   └── model.pt
│   └── config.pbtxt
├── cuml
│   ├── 1
│   │   └── checkpoint.tl
│   └── config.pbtxt
├── ensemble_all
│   ├── 1
│   │   └── empty
│   └── config.pbtxt
├── postprocess
│   ├── 1
│   │   ├── model.py
│   └── config.pbtxt
└── preprocess
    ├── 1
    │   ├── model.py
    └── config.pbtxt

要告訴 NVIDIA Triton 執(zhí)行 GPU 上的所有模型,請在每個模型的配置文件中包括以下行(集成模型的配置文檔中除外):

instance_group[{kind:KIND_GPU}]

在 CPU 上執(zhí)行 NVIDIA Triton 中的整個管道若要讓 NVIDIA Triton 在 CPU 上執(zhí)行整個管道,請重復在 GPU 上運行管道的所有步驟。在每個配置文件中將instance_group[{kind:KIND_GPU}]替換為以下行:

instance_group[{kind:KIND_CPU}]

后果

我們使用 GCP a2 高 GPU -1g VM 在延遲和吞吐量方面比較了以下三個推理管道:

由 NVIDIA Triton 在英特爾至強 CPU 上以 2.20 GHz 執(zhí)行的完整管道

NVIDIA Triton 在 NVIDIA A100 40 GB GPU 上執(zhí)行 ML 模型,在英特爾至強 CPU 上以 2.20 GHz 本地執(zhí)行預處理和后處理

由 NVIDIA Triton 在 NVIDIA A100 40 GB GPU 上執(zhí)行的完整管道

從表 1 中的結果可以明顯看出,使用 NVIDIA Triton 在 GPU 上運行整個管道的優(yōu)勢。對于較大的批處理大小和張量大小,吞吐量的提高更為明顯。 NVIDIA A100 40 GB 型號的執(zhí)行管道比在 2.20 GHz 下在 Intel Xeon CPU 上運行的整個管道效率高得多。當將預處理和后處理從 CPU 移動到 GPU 時,有進一步的改進。

Full pipeline on CPU Pre/postprocess on CPU; ML models on GPU Full pipeline on GPU
Latency (ms) 523 192 31
Throughput (samples/second) for batch size 512 242 7707 8308

表 1 。不同管道的延遲和吞吐量

如圖 3 所示, CPU 在非常適中的批量下受到瓶頸限制,在 GPU 上運行整個管道可以顯著提高吞吐量。

inference-pipeline-throughput.png 圖 3 。隨著批處理大小從 1 到 512 的變化,不同推理管道的吞吐量

結論

這篇文章解釋了如何使用 NVIDIA Triton 推理服務器來運行由預處理和后處理組成的推理管道,以及基于 transformer 的語言模型和基于樹的模型來解決 Kaggle 挑戰(zhàn)。 NVIDIA Triton 為同一管道的模型以及預處理和后處理邏輯提供了使用多個框架/后端的靈活性。這些管道可以在 CPU s 和/或 GPU s 上運行。

我們表明,與在 CPU 上運行預處理和后處理步驟以及在 GPU 上執(zhí)行模型相比,在模型執(zhí)行的同時利用 GPU s 進行預處理和后期處理,將端到端延遲減少了 6 倍。我們還表明,使用 NVIDIA Triton 使我們能夠同時對多個 ML 模型執(zhí)行推理,并且從一種部署類型(所有 CPU )到另一種(所有 GPU )只需要在配置文件中更改一行即可。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4986

    瀏覽量

    103066
  • 服務器
    +關注

    關注

    12

    文章

    9160

    瀏覽量

    85427
  • AI
    AI
    +關注

    關注

    87

    文章

    30896

    瀏覽量

    269108
收藏 人收藏

    評論

    相關推薦

    NVIDIA 在首個AI推理基準測試中大放異彩

    分為四個場景:與數(shù)據(jù)中心應用關聯(lián)性最高的服務器和離線場景,以及用于滿足邊緣設備地芯片系統(tǒng)需求的單流和多流場景。 NVIDIA在兩個數(shù)據(jù)中心場景(離線和服務器)的全部五項基準測試中均排在第一位
    發(fā)表于 11-08 19:44

    NVIDIA宣布其AI推理平臺的重大更新

    Capital One、Microsoft、Samsung Medison、Siemens Energy、Snap等25000多家客戶都在使用該平臺。 這些更新包括開源NVIDIA Triton推理
    的頭像 發(fā)表于 11-12 14:42 ?1946次閱讀

    NVIDIA Triton 推理服務器助力西門子提升工業(yè)效率

    西門子能源公司正在發(fā)揮 NVIDIA Triton 推理服務器的強大力量,利用 AI 協(xié)助解決全球發(fā)電廠在預測性服務管理方面的擔憂。
    的頭像 發(fā)表于 11-16 16:25 ?3699次閱讀

    NVIDIA Triton開源推理服務軟件三大功能推動效率提升

    Microsoft Teams借助AI生成的實時字幕和轉錄功能,幫助全球學生和職場人士順利進行在線會議。用于訓練的NVIDIA AI計算技術和用于推理語音識別模型的NVIDIA Triton
    的頭像 發(fā)表于 01-04 14:20 ?1692次閱讀

    NVIDIA Triton推理服務器幫助Teams使用認知服務優(yōu)化語音識別模型

    Microsoft Teams借助AI生成的實時字幕和轉錄功能,幫助全球學生和職場人士順利進行在線會議。用于訓練的NVIDIA AI計算技術和用于推理語音識別模型的NVIDIA Triton
    的頭像 發(fā)表于 01-04 17:45 ?1725次閱讀

    使用MIG和Kubernetes部署Triton推理服務器

      NVIDIA Triton 推理服務器是一款開源人工智能模型服務軟件,可簡化在生產中大規(guī)模部署經過培訓的人工智能模型。對于
    的頭像 發(fā)表于 04-07 09:54 ?3373次閱讀

    NVIDIA推理平臺和全棧方法提供最佳性能

    現(xiàn)在,您和開發(fā)人員社區(qū)的其他成員都可以使用這些成果,主要是以開源軟件的形式。此外, TensorRT 和 Triton 推理服務器可從?NVIDIA NGC?免費獲得,以及預訓練模型、
    的頭像 發(fā)表于 04-08 16:31 ?1173次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺和全棧方法提供最佳性能

    NVIDIA Triton推理服務器簡化人工智能推理

    GKE 的 Triton 推理服務器應用程序是一個 helm chart 部署程序,可自動安裝和配置 Triton ,以便在具有 NVIDIA
    的頭像 發(fā)表于 04-08 16:43 ?2225次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b><b class='flag-5'>推理</b><b class='flag-5'>服務器</b>簡化人工智能<b class='flag-5'>推理</b>

    使用NVIDIA Triton推理服務器簡化邊緣AI模型部署

      NVIDIA Triton 有助于在每個數(shù)據(jù)中心、云和嵌入式設備中實現(xiàn)標準化的可擴展生產 AI 。它支持多個框架,在 GPU 和 DLA 等多個計算引擎上運行模型,處理不同類型的推理
    的頭像 發(fā)表于 04-18 15:40 ?2789次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b><b class='flag-5'>推理</b><b class='flag-5'>服務器</b>簡化邊緣AI模型部署

    利用NVIDIA Triton推理服務器加速語音識別的速度

    網易互娛 AI Lab 的研發(fā)人員,基于 Wenet 語音識別工具進行優(yōu)化和創(chuàng)新,利用 NVIDIA Triton 推理服務器的 GPU Batch Inference 機制加速了語音
    的頭像 發(fā)表于 05-13 10:40 ?1980次閱讀

    NVIDIA Triton助力騰訊PCG加速在線推理

      借助NVIDIA Triton 推理框架,配合 DALI/FIL/Python 等Backend,以及 TensorRT,整體推理服務
    的頭像 發(fā)表于 05-20 15:25 ?2336次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>助力騰訊PCG加速在線<b class='flag-5'>推理</b>

    騰訊云TI平臺利用NVIDIA Triton推理服務器構造不同AI應用場景需求

    騰訊云 TI 平臺 TI-ONE 利用 NVIDIA Triton 推理服務器構造高性能推理服務
    的頭像 發(fā)表于 09-05 15:33 ?1946次閱讀

    NVIDIA Triton推理服務器的基本特性及應用案例

    推理識別是人工智能最重要的落地應用,其他與深度學習相關的數(shù)據(jù)收集、標注、模型訓練等工作,都是為了得到更好的最終推理性能與效果。
    的頭像 發(fā)表于 10-26 09:43 ?2066次閱讀

    NVIDIA Triton推理服務器的功能與架構簡介

    前面文章介紹微軟 Teams 會議系統(tǒng)、微信軟件與騰訊 PCG 服務三個 Triton 推理服務器的成功案例,讓大家對 Triton 有初步
    的頭像 發(fā)表于 11-02 10:44 ?2559次閱讀

    使用NVIDIA Triton推理服務器加速AI預測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學服務使用 NVIDIA Triton 推理服務器加速 AI
    的頭像 發(fā)表于 02-29 14:04 ?585次閱讀
    主站蜘蛛池模板: 4hu影院在线观看| 日本高清视频色| 国产美女视频黄a视频免费全过程| 好黄好硬好爽好刺激| 性xxxxbbbb在线| 黄色三级视频网站| 美女久久久| 国产成人毛片亚洲精品不卡| 欧美日韩国产乱了伦| 天天操天天射天天色| 爽a中文字幕一区| 欧美成人午夜精品免费福利| 五月天婷婷丁香中文在线观看| 欧美乱乱| 色噜噜噜| 天天色官网| 日本一级高清不卡视频在线| 欧美有码视频| 日日摸夜夜添免费毛片小说| 免费大片黄在线观看| 久久五月天婷婷| 九九热精品国产| 亚洲一级毛片免观看| 成人在线视频网址| 欧美专区欧美吧| 琪琪see色原网一区二区| 天天干天天爽天天射| 国产精品欧美精品国产主播| 国产一级特黄在线播放| 影音先锋在线亚洲精品推荐| 色综合天天综久久久噜噜噜久久〔 | 国产午夜在线观看| 午夜艹逼| 午夜在线播放视频在线观看视频| 亚洲1区2区3区4区| 狠狠色丁香婷婷久久综合不卡| 国产精品福利久久2020| 色多多在线看| 狼人狠狠干| 谁有毛片网站| 人人干天天干|