在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT和DLA分析

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-05-18 10:06 ? 次閱讀

NVIDIA DLA(Deep Learning Accelerator–深度學習加速器)是一款針對深度學習操作的固定功能加速器引擎。 DLA 旨在對卷積神經(jīng)網(wǎng)絡(luò)進行全硬件加速。 DLA支持卷積、反卷積、全連接、激活、池化、批量歸一化等各種層,DLA不支持Explicit Quantization 。

trtexec在DLA 上運行 ResNet-50 FP16 網(wǎng)絡(luò)

。/trtexec --onnx=data/resnet50/ResNet50.onnx --useDLACore=0 --fp16 --allowGPUFallback

trtexec在DLA 上運行 ResNet-50 INT8 網(wǎng)絡(luò):

。/trtexec --onnx=data/resnet50/ResNet50.onnx --useDLACore=0 --int8 --allowGPUFallback

12.1. Running On DLA During TensorRT Inference

TensorRT 構(gòu)建器可以配置為在 DLA 上啟用推理。 DLA 支持目前僅限于在 FP16 或 INT8 模式下運行的網(wǎng)絡(luò)。 DeviceType枚舉用于指定網(wǎng)絡(luò)或?qū)釉谄渖蠄?zhí)行的設(shè)備。 IBuilderConfig類中的以下 API 函數(shù)可用于配置網(wǎng)絡(luò)以使用 DLA:

setDeviceType(ILayer* layer, DeviceType deviceType)

此函數(shù)可用于設(shè)置層必須在其上執(zhí)行的設(shè)備類型

getDeviceType(const ILayer* layer)

此函數(shù)可用于返回該層執(zhí)行的設(shè)備類型。如果層在 GPU 上執(zhí)行,則返回DeviceType::kGPU 。

canRunOnDLA(const ILayer* layer)

此功能可用于檢查層是否可以在 DLA 上運行。

setDefaultDeviceType(DeviceType deviceType)

此函數(shù)設(shè)置構(gòu)建器使用的默認設(shè)備類型。它確保可以在 DLA 上運行的所有層都在 DLA 上運行,除非setDeviceType用于覆蓋層的deviceType 。

getDefaultDeviceType()

此函數(shù)返回由 setDefaultDeviceType 設(shè)置的默認設(shè)備類型。

isDeviceTypeSet(const ILayer* layer)

此函數(shù)檢查是否已為該層顯式設(shè)置了deviceType 。

resetDeviceType(ILayer* layer)

此函數(shù)重置此層的deviceType 。如果未指定,該值將重置為由setDefaultDeviceType或DeviceType::kGPU指定的設(shè)備類型。

allowGPUFallback(bool setFallBackMode)

如果應(yīng)該在 DLA 上運行的層無法在 DLA 上運行,此函數(shù)會通知構(gòu)建器使用 GPU。有關(guān)詳細信息,請參閱GPU 回退模式。

reset()

此函數(shù)可用于重置IBuilderConfig狀態(tài),它將所有層的deviceType設(shè)置為DeviceType::kGPU 。重置后,構(gòu)建器可以重新用于構(gòu)建具有不同 DLA 配置的另一個網(wǎng)絡(luò)。

IBuilder類中的以下 API 函數(shù)可用于幫助配置網(wǎng)絡(luò)以使用 DLA:

getMaxDLABatchSize()

此函數(shù)返回 DLA 可以支持的最大批量大小。

注意:對于任何張量,索引維度的總體積加上請求的批量大小不得超過此函數(shù)返回的值。

getNbDLACores()

此函數(shù)返回用戶可用的 DLA 內(nèi)核數(shù)。

如果構(gòu)建器不可訪問,例如在推理應(yīng)用程序中在線加載計劃文件的情況下,則可以通過對 IRuntime 使用 DLA 擴展以不同方式指定要使用的DLA 。 IRuntime類中的以下 API 函數(shù)可用于配置網(wǎng)絡(luò)以使用 DLA:

getNbDLACores()

此函數(shù)返回用戶可訪問的 DLA 內(nèi)核數(shù)。

setDLACore(int dlaCore)

要在其上執(zhí)行的 DLA 內(nèi)核。其中dlaCore是介于0和getNbDLACores() - 1之間的值。默認值為0

getDLACore()

運行時執(zhí)行分配到的 DLA 核心。默認值為 0。

12.1.1. Example: sampleMNIST With DLA

本節(jié)提供有關(guān)如何在啟用 DLA 的情況下運行 TensorRT 示例的詳細信息。

位于 GitHub 存儲庫中的sampleMNIST演示了如何導入經(jīng)過訓練的模型、構(gòu)建 TensorRT 引擎、序列化和反序列化引擎,最后使用引擎執(zhí)行推理。

該示例首先創(chuàng)建構(gòu)建器:

auto builder = SampleUniquePtr(nvinfer1::createInferBuilder(gLogger));
if (!builder) return false;
builder->setMaxBatchSize(batchSize);

然后,啟用GPUFallback模式:

config->setFlag(BuilderFlag::kGPU_FALLBACK);
config->setFlag(BuilderFlag::kFP16); or config->setFlag(BuilderFlag::kINT8);

在 DLA 上啟用執(zhí)行,其中dlaCore指定要在其上執(zhí)行的 DLA 內(nèi)核:

config->setDefaultDeviceType(DeviceType::kDLA);
config->setDLACore(dlaCore);

通過這些額外的更改,sampleMNIST 已準備好在 DLA 上執(zhí)行。要使用 DLA Core 1 運行 sampleMNIST,請使用以下命令:

 ./sample_mnist --useDLACore=0 [--int8|--fp16]

12.1.2. Example: Enable DLA Mode For A Layer During Network Creation

在這個例子中,讓我們創(chuàng)建一個包含輸入、卷積和輸出的簡單網(wǎng)絡(luò)。

1.創(chuàng)建構(gòu)建器、構(gòu)建器配置和網(wǎng)絡(luò):

IBuilder* builder = createInferBuilder(gLogger);
IBuilderConfig* config = builder.createBuilderConfig();
INetworkDefinition* network = builder->createNetworkV2(0U);

2.使用輸入維度將輸入層添加到網(wǎng)絡(luò)。

auto data = network->addInput(INPUT_BLOB_NAME, dt, Dims3{1, INPUT_H, INPUT_W});

3.添加具有隱藏層輸入節(jié)點、步幅和權(quán)重的卷積層以用于卷積核和偏差。

auto conv1 = network->addConvolution(*data->getOutput(0), 20, DimsHW{5, 5}, weightMap["conv1filter"], weightMap["conv1bias"]);
conv1->setStride(DimsHW{1, 1});

4.將卷積層設(shè)置為在 DLA 上運行:

if(canRunOnDLA(conv1))
{
config->setFlag(BuilderFlag::kFP16); or config->setFlag(BuilderFlag::kINT8);
builder->setDeviceType(conv1, DeviceType::kDLA); 

}

5.標記輸出

network->markOutput(*conv1->getOutput(0));

6.將 DLA 內(nèi)核設(shè)置為在以下位置執(zhí)行:

config->setDLACore(0)

12.2. DLA Supported Layers

本節(jié)列出了 DLA 支持的層以及與每個層相關(guān)的約束。

在 DLA 上運行時的一般限制(適用于所有層)

支持的最大批量大小為 4096。

DLA 不支持動態(tài)尺寸。因此,對于通配符維度,配置文件的min 、 max和opt值必須相等。

如果違反了任何限制,并且啟用了GpuFallback, TensorRT可以將DLA網(wǎng)絡(luò)分成多個部分。否則,TensorRT會發(fā)出錯誤并返回。更多信息,請參考GPU回退模式。

由于硬件和軟件內(nèi)存限制,最多可以同時使用四個 DLA 可加載項。

注意: DLA 的批量大小是除CHW維度之外的所有索引維度的乘積。例如,如果輸入維度為NPQRS ,則有效批量大小為N*P 。

層特定限制

卷積層和全連接層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

內(nèi)核大小的每個維度都必須在[1, 32]范圍內(nèi)。

填充(Padding)必須在[0, 31]范圍內(nèi)。

填充的維度必須小于相應(yīng)的內(nèi)核維度。

步幅的尺寸必須在[1, 8]范圍內(nèi)。

輸出映射的數(shù)量必須在[1, 8192]范圍內(nèi)。

對于使用格式TensorFormat::kLINEAR 、 TensorFormat::kCHW16和TensorFormat::kCHW32的操作,組數(shù)必須在[1, 8192]范圍內(nèi)。

對于使用格式TensorFormat::kCHW4的操作,組數(shù)必須在[1, 4]范圍內(nèi)。

空洞卷積(Dilated convolution )必須在[1, 32]范圍內(nèi)。

如果 CBUF 大小要求wtBanksForOneKernel + minDataBanks超過numConvBufBankAllotted限制16 ,則不支持操作,其中 CBUF 是在對輸入權(quán)重和激活進行操作之前存儲輸入權(quán)重和激活的內(nèi)部卷積緩存, wtBanksForOneKernel是一個內(nèi)核存儲最小權(quán)重/卷積所需的核元素, minDataBanks是存儲卷積所需的最小激活數(shù)據(jù)的最小庫。偽代碼細節(jié)如下:

wtBanksForOneKernel = uint32(ceil(roundUp(inputDims_c * kernelSize_h * kernelSize_w * (INT8 ? 1 : 2), 128) / 32768.0))

minDataBanks = uint32(ceil(float(entriesPerDataSlice * dilatedKernelHt) / 256.0)) where entriesPerDataSlice = uint32(ceil(ceil(inputDims_c * (INT8 ? 1 : 2) / 32.0) * inputDims_w / 4.0)) and dilatedKernelHt = (kernelSize_h - 1) * dilation_h + 1

FAIL if wtBanksForOneKernel + minDataBanks > 16, PASS otherwise.

反卷積層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

除了1x[64, 96, 128]和[64, 96, 128]x1之外,內(nèi)核的尺寸必須在[1, 32]范圍內(nèi)。

TensorRT 在 DLA 上禁用了反卷積平方內(nèi)核并在[23 - 32]范圍內(nèi)跨步,因為它們顯著減慢了編譯速度。

填充(Padding)必須為0 。

分組反卷積必須為1 。

擴張反卷積必須為1 。

輸入通道數(shù)必須在[1, 8192]范圍內(nèi)。

輸出通道數(shù)必須在[1, 8192]范圍內(nèi)。

池化層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

支持的操作: kMAX , kAVERAGE 。

窗口的尺寸必須在[1, 8]范圍內(nèi)。

填充的尺寸必須在[0, 7]范圍內(nèi)。

步幅的尺寸必須在[1, 16]范圍內(nèi)。

使用 INT8 模式,輸入和輸出張量標度必須相同。

激活層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

支持的函數(shù): ReLU 、 Sigmoid 、 TanH 、 Clipped ReLU和Leaky ReLU 。

ReLU不支持負斜率。

Clipped ReLU僅支持[1, 127]范圍內(nèi)的值。

TanH , Sigmoid INT8 支持通過自動升級到 FP16 來支持。

參數(shù) ReLU 層

斜率輸入必須是構(gòu)建時間常數(shù)。

ElementWise 層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

支持的操作: Sum 、 Sub 、 Product 、 Max和Min 。

注意:在 Xavier 上,TensorRT 將 DLA Scale 層和 DLA ElementWise 層與操作Sum連接以支持Sub操作,單個 Xavier DLA ElementWise 層不支持。

Scale層

僅支持兩個空間維度操作。

支持 FP16 和 INT8。

支持的模式: Uniform 、 Per-Channel和ElementWise 。

僅支持縮放和移位操作。

LRN(局部響應(yīng)歸一化)層

允許的窗口大小為3 、 5 、 7或9 。

支持的規(guī)范化區(qū)域是ACROSS_CHANNELS 。

LRN INT8。

連接層

DLA 僅支持沿通道軸連接。

Concat 必須至少有兩個輸入。

所有輸入必須具有相同的空間維度。

對于 INT8 模式,所有輸入的動態(tài)范圍必須相同。

對于 INT8 模式,輸出的動態(tài)范圍必須等于每個輸入。

Resize層

刻度的數(shù)量必須正好是4 。

scale 中的前兩個元素必須正好為1 (對于未更改的批次和通道尺寸)。

scale 中的最后兩個元素,分別表示沿高度和寬度維度的比例值,在最近鄰模式下需要為[1, 32]范圍內(nèi)的整數(shù)值,在雙線性模式下需要為[1, 4]范圍內(nèi)的整數(shù)值。

Unary 層

僅支持 ABS 操作。

Softmax 層

僅支持 NVIDIA Orin?,不支持 Xavier?。

僅支持批量大小為 1 的單個輸入。

輸入的非批量、非軸維度都應(yīng)該是大小 1。例如,對于軸 = 1 的 softmax(即在 C 維度上),H 和 W 維度的大小都應(yīng)該是 1。

注意:當使用 TensorRT 在 DLA 上運行 INT8 網(wǎng)絡(luò)時,建議將操作添加到同一子圖中,以通過允許它們?nèi)诤喜橹虚g結(jié)果保留更高的精度來減少在 DLA 上運行的網(wǎng)絡(luò)的子圖上的量化誤差。通過將張量設(shè)置為網(wǎng)絡(luò)輸出張量來拆分子圖以檢查中間結(jié)果可能會由于禁用這些優(yōu)化而導致不同級別的量化誤差。

12.3. GPU Fallback Mode

如果被標記為在DLA上運行的層不能在DLA上運行,則GPUFallbackMode設(shè)置生成器使用GPU。

由于以下原因,層無法在 DLA 上運行:

DLA 不支持層操作。

指定的參數(shù)超出了 DLA 支持的范圍。

給定的批量大小超過了允許的最大 DLA 批量大小。有關(guān)詳細信息,請參閱DLA 支持的層。

網(wǎng)絡(luò)中的層組合導致內(nèi)部狀態(tài)超過 DLA 能夠支持的狀態(tài)。

平臺上沒有可用的 DLA 引擎。

如果GPUFallbackMode設(shè)置為false ,則設(shè)置為在 DLA 上執(zhí)行但無法在 DLA 上運行的層會導致錯誤。但是,將GPUFallbackMode設(shè)置為true后,它會在報告警告后繼續(xù)在 GPU 上執(zhí)行。

同樣,如果defaultDeviceType設(shè)置為DeviceType::kDLA并且GPUFallbackMode設(shè)置為false ,則如果任何層無法在 DLA 上運行,則會導致錯誤。將GPUFallbackMode設(shè)置為true時,它會報告警告并繼續(xù)在 GPU 上執(zhí)行。

如果網(wǎng)絡(luò)中的層組合無法在 DLA 上運行,則組合中的所有層都在 GPU 上執(zhí)行。

12.4. I/O Formats on DLA

DLA 支持設(shè)備獨有的格式,并且由于矢量寬度字節(jié)要求而對其布局有限制。

對于 DLA 輸入,支持 kDLA_LINEAR ( FP16 , INT8 )、 kDLA_HWC4 ( FP16 , INT8 )、 kCHW16 ( FP16 ) 和kCHW32 ( INT8 )。對于 DLA 輸出,僅支持 kDLA_LINEAR ( FP16 , INT8 )、 kCHW16 ( FP16 ) 和kCHW32 ( INT8 )。對于kCHW16和kCHW32格式,如果C不是整數(shù)倍,則必須將其填充到下一個 32 字節(jié)邊界。

對于kDLA_LINEAR格式,沿W維度的步幅必須最多填充 64 個字節(jié)。內(nèi)存格式等效于維度為[N][C][H][roundUp(W, 64/elementSize)]的C數(shù)組,其中FP16的elementSize為 2, Int8為 1 ,張量坐標為(n, c, h, w)映射到數(shù)組下標[n][c][h][w] 。

對于kDLA_HWC4格式,沿W維度的步幅必須是 Xavier 上 32 字節(jié)和 Orin 上 64 字節(jié)的倍數(shù)。

當C == 1時,TensorRT 將格式映射到本機灰度圖像格式。

當C == 3或C == 4時,它映射到本機彩色圖像格式。如果C == 3 ,沿W軸步進的步幅需要填充為 4 個元素。在這種情況下,填充通道位于第 4 個索引處。理想情況下,填充值無關(guān)緊要,因為權(quán)重中的第 4 個通道被 DLA 編譯器填充為零;但是,應(yīng)用程序分配四個通道的零填充緩沖區(qū)并填充三個有效通道是安全的。

當C為{1, 3, 4}時,填充后的 C‘分別為{1, 4, 4} ,內(nèi)存布局等價于維度為[N][H][roundUp(W, 32/C’/elementSize)][C‘]的C數(shù)組, 其中elementSize對于FP16為 2,對于Int8為 1 。張量坐標(n, c, h, w)映射到數(shù)組下標[n][h][w][c] , roundUp計算大于或等于W的64/elementSize的最小倍數(shù)。

使用kDLA_HWC4作為 DLA 輸入格式時,有以下要求:

C必須是1 、 3或4

第一層必須是卷積。

卷積參數(shù)必須滿足 DLA 要求,請參閱DLA Supported Layers 。

當EngineCapability為EngineCapability::kSTANDARD且 TensorRT 無法為給定的輸入/輸出格式生成無重構(gòu)網(wǎng)絡(luò)時,可以自動將不支持的 DLA 格式轉(zhuǎn)換為支持的 DLA 格式。例如,如果連接到網(wǎng)絡(luò)輸入或輸出的層不能在 DLA 上運行,或者如果網(wǎng)絡(luò)不滿足其他 DLA 要求,則插入重新格式化操作以滿足約束。在所有情況下,TensorRT 期望數(shù)據(jù)格式化的步幅都可以通過查詢IExecutionContext::getStrides來獲得。

12.5. DLA Standalone Mode

如果您使用單獨的 DLA 運行時組件,則可以使用EngineCapability::kDLA_STANDALONE生成 DLA 可加載項。請參閱相關(guān) DLA 運行時組件的文檔以了解如何使用可加載項。

當使用kDLA_STANDALONE時,TensorRT 為給定的輸入/輸出格式生成一個無重新格式化的網(wǎng)絡(luò)。對于 DLA 輸入,支持 kLINEAR ( FP16 , INT8 )、 kCHW4 ( FP16 , INT8 )、 kCHW16 ( FP16 ) 和kCHW32 ( INT8 )。而對于 DLA 輸出,僅支持 kLINEAR ( FP16 , INT8 )、 kCHW16 ( FP16 ) 和kCHW32 ( INT8 )。對于kCHW16和kCHW32格式,建議C通道數(shù)等于向量大小的正整數(shù)倍。如果C不是整數(shù)倍,則必須將其填充到下一個 32 字節(jié)邊界。

12.6. Customizing DLA Memory Pools

您可以自定義分配給網(wǎng)絡(luò)中每個可加載的 DLA 的內(nèi)存池的大小。共有三種類型的 DLA 內(nèi)存池(有關(guān)每個池的描述,請參見枚舉類 MemoryPoolType ):

Managed SRAM

Local DRAM

Global DRAM

對于每種池類型,使用 API IBuilderConfig::setMemoryPoolLimit和IBuilderConfig::getMemoryPoolLimit來設(shè)置和查詢相關(guān)池的大小,以便為每個可加載的 DLA 分配更大的內(nèi)存池。每個可加載的實際需要的內(nèi)存量可能小于池大小,在這種情況下將分配較小的量。池大小僅用作上限。

請注意,所有 DLA 內(nèi)存池都需要大小為 2 的冪,最小為 4 KiB。違反此要求會導致 DLA 可加載編譯失敗。

Managed SRAM 與其他 DRAM 池的區(qū)別主要在于角色的不同。以下是Managed SRAM 的一些值得注意的方面:

它類似于緩存,因為資源稀缺,DLA 可以通過回退到本地 DRAM 來運行而無需它。

任何分配往往都會被充分利用。因此,報告的 SRAM 通常與分配的 SRAM 池的數(shù)量相同(在某些情況下可能與用戶指定的大小不同)。

由于類似于緩存的性質(zhì),DLA 在 SRAM 不足時會回退到 DRAM,而不是失敗。因此,如果可以負擔得起,即使在成功的引擎構(gòu)建之后也嘗試增加 SRAM 的數(shù)量,以查看推理速度是否有任何提升。這尤其適用于卸載許多子圖的網(wǎng)絡(luò)。

Orin 和 Xavier 在每個內(nèi)核可用的最大 SRAM 數(shù)量方面存在差異:Xavier 在 4 個內(nèi)核(包括 2 個 DLA 內(nèi)核)中提供總共 4 MiB 的 SRAM,而 Orin 為每個 DLA 內(nèi)核專用 1 MiB SRAM。這意味著當在一個設(shè)備上運行多個網(wǎng)絡(luò)時,Xavier 需要明確控制總體 SRAM 消耗,而 Orin 在這方面不必擔心。

在多子圖情況下,重要的是要記住池大小適用于每個 DLA 子圖,而不是整個網(wǎng)絡(luò)。

關(guān)于作者

Ken He 是 NVIDIA 企業(yè)級開發(fā)者社區(qū)經(jīng)理 & 高級講師,擁有多年的 GPU 和人工智能開發(fā)經(jīng)驗。自 2017 年加入 NVIDIA 開發(fā)者社區(qū)以來,完成過上百場培訓,幫助上萬個開發(fā)者了解人工智能和 GPU 編程開發(fā)。在計算機視覺,高性能計算領(lǐng)域完成過多個獨立項目。并且,在機器人無人機領(lǐng)域,有過豐富的研發(fā)經(jīng)驗。對于圖像識別,目標的檢測與跟蹤完成過多種解決方案。曾經(jīng)參與 GPU 版氣象模式GRAPES,是其主要研發(fā)者。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4773

    瀏覽量

    100890
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5013

    瀏覽量

    103246
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5507

    瀏覽量

    121272
收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?172次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    【AIBOX應(yīng)用】通過 NVIDIA TensorRT 實現(xiàn)實時快速的語義分割

    NVIDIA系列AIBOXAIBOX-OrinNano和AIBOX-OrinNX均搭載NVIDIA原裝JetsonOrin核心板模組,標配工業(yè)級全金屬外殼,鋁合金結(jié)構(gòu)導熱,頂蓋外殼側(cè)面采用條幅格柵
    的頭像 發(fā)表于 12-18 16:33 ?188次閱讀
    【AIBOX應(yīng)用】通過 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b> 實現(xiàn)實時快速的語義分割

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?194次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?298次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與 NVIDIA 加速
    的頭像 發(fā)表于 11-20 09:59 ?255次閱讀

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?339次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優(yōu)化

    DLA標準微電路圖紙和JAN零件號初級讀本

    電子發(fā)燒友網(wǎng)站提供《DLA標準微電路圖紙和JAN零件號初級讀本.pdf》資料免費下載
    發(fā)表于 09-25 10:56 ?0次下載
    <b class='flag-5'>DLA</b>標準微電路圖紙和JAN零件號初級讀本

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI 訓練的數(shù)據(jù)集。
    的頭像 發(fā)表于 09-06 14:59 ?337次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價值。”
    的頭像 發(fā)表于 08-23 15:48 ?467次閱讀

    MediaTek與NVIDIA TAO加速物聯(lián)網(wǎng)邊緣AI應(yīng)用發(fā)展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——將NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(軟件開發(fā)工具包)集成,共同推動邊緣AI推理芯
    的頭像 發(fā)表于 06-12 14:49 ?485次閱讀

    利用NVIDIA的nvJPEG2000庫分析DICOM醫(yī)學影像的解碼功能

    本文將深入分析 DICOM 醫(yī)學影像的解碼功能。AWS HealthImaging 利用 NVIDIA 的 nvJPEG2000 庫來實現(xiàn)此功能。
    的頭像 發(fā)表于 05-28 14:27 ?829次閱讀
    利用<b class='flag-5'>NVIDIA</b>的nvJPEG2000庫<b class='flag-5'>分析</b>DICOM醫(yī)學影像的解碼功能

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?588次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結(jié)合 NVIDIA TensorRTNVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱
    的頭像 發(fā)表于 04-20 09:39 ?756次閱讀

    TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

    NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺上為Gemma推出了優(yōu)化。
    的頭像 發(fā)表于 02-23 09:42 ?629次閱讀
    <b class='flag-5'>TensorRT</b> LLM加速Gemma!<b class='flag-5'>NVIDIA</b>與谷歌牽手,RTX助推AI聊天

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學習模型,并借助NVIDIA Triton推理服務(wù)器在NVIDIA V100 GPU上進行高效部署,幫助必優(yōu)科技的文
    的頭像 發(fā)表于 01-17 09:30 ?713次閱讀
    主站蜘蛛池模板: 久久婷婷久久一区二区三区| 美女一级免费毛片| 给我一个可以看片的www日本| 久久久久毛片成人精品| 精品手机在线视频| 国产又黄又免费aaaa视频| 国产成人精品亚洲77美色| 岛国最新资源网站| 六月丁香婷婷天天在线| 久久成人免费网站| 成 人 免 费 黄 色| 午夜大片网| 久久草在线视频播放| 日韩高清在线日韩大片观看网址| 一区二区高清在线观看| 中日韩在线视频| 四虎影院国产| 毛片免费高清免费| 99色在线视频| bt天堂资源种子在线| 天天在线天天在线天天影视| 久久精品国产99精品国产2021| 欧美精品高清在线xxxx| 性xxxxhd高清| 能看毛片的网址| 婷婷五月小说| 久久久久琪琪免费影院| 99精品久久久久久久婷婷| 乱人伦一区二区三区| haose16在线永久免费| 在线播放你懂| 男女做视频网站免费观看| 一级毛片免费不卡在线视频| 一本大道加勒比久久| 看黄在线观看| 亚洲国产日韩女人aaaaaa毛片在线| 亚洲a人片在线观看网址| 免费黄色在线视频| 午夜网站在线观看| 欧美xxxx日本| 性色综合|