在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA 第九屆 Sky Hackathon 優(yōu)秀作品展示 | 靜語畫韻:藝術(shù)中的無聲詩篇

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2023-12-21 19:35 ? 次閱讀

NVIDIA 第九屆Sky Hackathon 大賽旨在通過 NVIDIA Jetson 平臺和 Microsoft Azure OpenAI 平臺,由 NVIDIA 和 Microsoft 導(dǎo)師精心設(shè)計的大模型應(yīng)用場景,引領(lǐng)參與者領(lǐng)略大模型的應(yīng)用潛力,以及如何運用人工智能技術(shù)構(gòu)建智能化解決方案。

本次 Hackathon 聚焦在如何在物聯(lián)網(wǎng)設(shè)備上構(gòu)建基于大模型的應(yīng)用解決方案。參與者通過使用 NVIDIA Jetson 平臺,親身體驗了大模型在圖像識別和生成式模型調(diào)用方面的應(yīng)用。從 Resnet50 模型的優(yōu)化到 TensorRT 推理引擎的生成,每一步都呈現(xiàn)了 NVIDIA Jetson 在深度學(xué)習(xí)加速方面的卓越性能。

下文供稿自 NVIDIA 第九屆 Sky Hackathon 大賽的冠軍團(tuán)隊,通過本官方微信公眾號推薦開發(fā)者朋友們,希望開發(fā)者朋友們能夠積極交流,碰撞出更多創(chuàng)新的火花!

在當(dāng)前時代,數(shù)字化與人工智能正不斷推動藝術(shù)與技術(shù)的深度融合,開創(chuàng)了全新的創(chuàng)作與體驗方式。來自山東科技大學(xué)的團(tuán)隊(指導(dǎo)老師:王魯昆老師,團(tuán)隊成員:許金浩、李振宇、王俊豐、紀(jì)中華)在最近的NVIDIA 第九屆 Sky Hackathon中以其杰出的作品 Narrative Canvas 奪得冠軍,成為這一趨勢的杰出代表。本文旨在深入分析這個項目的核心理念、技術(shù)創(chuàng)新之處,以及它為藝術(shù)體驗帶來的革命性改變,展示了這個團(tuán)隊如何在藝術(shù)與技術(shù)交匯的邊界上探索新領(lǐng)域。

項目倉庫:https://github.com/1438802682/NarrativeCanvas

演示視頻:https://www.bilibili.com/video/BV1rc411D7pP/

項目概覽:圖文互動的新紀(jì)元

項目介紹

Narrative Canvas 項目的核心,在于“圖生文,文生圖”的相互作用。畫作激發(fā)文字的創(chuàng)作,文字又給畫作賦予了新的生命。這種互動不僅增強(qiáng)了藝術(shù)作品的表現(xiàn)力,也為觀者提供了一種全新的藝術(shù)體驗。在這個過程中,觀者可以看到一個故事從視覺形象轉(zhuǎn)化為文字?jǐn)⑹觯購奈淖种兄匦孪胂蟪鲆曈X畫面,這是一場視覺與文字的雙重旅行。

wKgZomWEJBqAYkLXAAJKPJ5tsqE270.png

項目流程簡述

  1. 圖像推理:用戶上傳圖片、選擇模型和精度、執(zhí)行推斷,推斷完成后得到處理過的圖片。

  2. 生成故事:基于處理過的圖片,用戶選擇模型、風(fēng)格、主題和輸入自定義提示詞,完成故事生成。

  3. 生成圖片:根據(jù)故事內(nèi)容,用戶再次選擇模型、風(fēng)格并輸入自定義提示詞,完成圖像生成。

這個循環(huán)過程創(chuàng)造了一個從視覺到文本再回到視覺的獨特旅程。

wKgZomWEJBqAOK-tAACLmC5jqrI266.png

技術(shù)創(chuàng)新點

使用 NVIDIA Polygraphy

對 ONNX 模型預(yù)處理優(yōu)化

該項目的圖片推理部分基于 mmlab 算法庫中的 mmpretrain 預(yù)訓(xùn)練模型,精選了25 個經(jīng)典主干網(wǎng)絡(luò)進(jìn)行圖像分類任務(wù)。

(2014)VGG 11
(2015)Inception v3
(2015)ResNet 50
(2017)ResNeXt 50
(2018)SE-ResNet 50
(2018)ShuffleNet v1
(2018)ShuffleNet v2
(2019)Res2Net 50
(2018)MobileNet v2
(2019)MobileNet v3
(2020)RegNet
(2019)EfficientNet
(2021)EfficientNet v2
(2021)Vision Transformer
(2021)Swin Transformer
(2021)Conformer
(2021)Twins
(2021)MobileViT
(2021)CLIP
(2021)DeiT
(2022)DeiT3
(2022)MViT V2
(2022)MobileOne
(2022)EdgeNeXt
(2023)EfficientVit

上下滑動查看更多↑↓

項目團(tuán)隊使用了 NVIDIA 的 Polygraphy 工具對 ONNX 模型進(jìn)行了優(yōu)化,移除和合并了多余節(jié)點,如多余的 Transpose 節(jié)點等,這些節(jié)點原本阻礙了 TensorRT 的優(yōu)化。這使得 TensorRT 引擎構(gòu)建更加高效。該團(tuán)隊將優(yōu)化前后的 ONNX 模型和原始的 pt 權(quán)重都上傳到 Hugging Face。

ONNX 模型優(yōu)化文件下載地址:https://huggingface.co/CtrlX/ModelReady-pretrain/tree/main

優(yōu)化過程包括:

  1. 移除無用節(jié)點:刪除對輸出無影響的節(jié)點。

  2. 合并冗余節(jié)點:將執(zhí)行相似功能的節(jié)點合并。

  3. 優(yōu)化圖結(jié)構(gòu):通過節(jié)點合并和折疊,簡化模型結(jié)構(gòu)。

  4. 提高 TensorRT 兼容性:轉(zhuǎn)換或減少特殊處理的節(jié)點。

  5. 加速推理性能:優(yōu)化后的模型在 TensorRT 中運行更高效。

示例:以 2023 年的最新工作 EfficientVit 為例:

優(yōu)化前的 ONNX 模型:

wKgZomWEJBqAUtMPAABaFYfydwQ614.png

優(yōu)化后的 ONNX 模型:

wKgZomWEJBqAertMAAA4uak33Zs062.png

通過優(yōu)化的日志文件可以看出優(yōu)化后的模型去除了一半以上的冗余節(jié)點,節(jié)點數(shù)量由原來的 1440 減少到了 673,經(jīng)過測試后沒有發(fā)現(xiàn)明顯的精度損失,但是大大提高了引擎的構(gòu)建速度:

wKgZomWEJBqAITOBAABUIEtM6tM046.png

Note:提供 Jetson Xavier NX 平臺的 TensorRT 引擎序列化文件

該項目團(tuán)隊提供了針對 Jetson Xavier NX 8G 平臺的 TensorRT 引擎序列化文件,以便用戶能夠一鍵下載并在 Jetson Xavier NX 上直接進(jìn)行推理,從而快速啟動項目。

Jetson Xavier NX 平臺序列化引擎文件下載地址:https://huggingface.co/CtrlX/ModelReady-TRT/tree/main/Jetson-Xavier-NX-8G/engine

NVIDIA TensorRT Dynamic Shape

模式在多圖推理中的應(yīng)用

在構(gòu)建引擎過程中,該團(tuán)隊在項目中利用 NVIDIA 的 TensorRT 工具啟用了 Dynamic Shape 功能于批處理維度,支持一次最多處理 8 張圖片,顯著提升了推理效率。

wKgZomWEJBqAamrNAACF1kh5xw0549.png

NVIDIA TensorRT實現(xiàn)

推理精度多元選擇機(jī)制:fp32/fp16/int8

該項目提供了構(gòu)建不同精度引擎的代碼,允許用戶根據(jù)需要在精度和速度之間做出選擇。

默認(rèn)情況下,TensorRT 以 32 位精度 (fp32) 工作,但也支持 16 位浮點 (fp16) 和 8 位量化浮點 (int8) 執(zhí)行操作。使用較低精度能減少內(nèi)存需求并加快計算速度。盡管 fp16 和 fp32 的使用相對簡單,使用 int8 則涉及更多復(fù)雜性。有關(guān) int8 的更多詳情,請參見 INT8 章節(jié)。

wKgZomWEJBqAEC9JAACo4AP8EnQ453.png

NVIDIA TensorRT:

啟用 INT8 PTQ 量化加速推理機(jī)制

該項目通過使用 NVIDIA TensorRT 實現(xiàn)了 INT8 精度量化 (Post-Training Quantization, PTQ) 來加速推理。構(gòu)建 INT8 引擎的步驟包括:

  1. 構(gòu)建 32 位引擎,運行校準(zhǔn)集,記錄每個張量激活值分布的直方圖。

  2. 根據(jù)直方圖創(chuàng)建校準(zhǔn)表,為每個張量提供標(biāo)度值。

  3. 使用校準(zhǔn)表和網(wǎng)絡(luò)定義構(gòu)建 INT8 引擎。

校準(zhǔn)過程可能較慢,因此校準(zhǔn)表的輸出可以被緩存并重復(fù)使用,尤其適用于同一平臺上重復(fù)構(gòu)建相同網(wǎng)絡(luò)的情況。

該項目提供了基于 ImageNet 1K val 數(shù)據(jù)集中 510 張圖片的 INT8 Cache(校準(zhǔn)表),使用 dynamic shape([batch, 3, 224, 224],batch 維度 1-8,opt=4)模式迭代 120 次。

針對 Xavier NX8G 平臺,該團(tuán)隊測試了 10 種主流模型的 INT8 Cache 文件,由于時間限制未能覆蓋全部 25 個模型,但提供了優(yōu)化后的 ONNX 模型文件,可供后續(xù)測試。

ImageNet1k INT8 Cache 文件下載地址:https://huggingface.co/CtrlX/ModelReady-TRT/tree/main/Jetson-Xavier-NX-8G/int8Cache

Note:Dynamic Shape 模式與 INT8 PTQ

要在具有動態(tài)形狀的網(wǎng)絡(luò)上運行 INT8 校準(zhǔn),需設(shè)置校準(zhǔn)優(yōu)化配置文件,使用配置文件的 kOPT 值進(jìn)行校準(zhǔn),且校準(zhǔn)輸入數(shù)據(jù)大小必須與配置文件匹配。

創(chuàng)建校準(zhǔn)優(yōu)化配置文件的示例代碼如下:

wKgZomWEJBuAAo9kAACFQjs2uXs134.png

Note:雙模式 INT8 量化策略

該項目為不同類型的主干網(wǎng)絡(luò)提供了兩種 INT8 量化策略:

  1. trt.IInt8MinMaxCalibrator

    這種方法選擇張量的比例因子以優(yōu)化量化張量的信息論內(nèi)容,通常會抑制分布中的異常值。這是目前推薦的熵校準(zhǔn)器,也是 DLA 所必需的。校準(zhǔn)通常在層融合之前進(jìn)行,校準(zhǔn)批量大小可能會影響結(jié)果。推薦用于基于 CNN 的網(wǎng)絡(luò)。

  2. trt.IInt8EntropyCalibrator2

    這個校準(zhǔn)器使用激活分布的整個范圍來確定比例因子,似乎更適合于 NLP 任務(wù)。校準(zhǔn)一般在層融合之前進(jìn)行。推薦用于 NVIDIA BERT(Google 官方實現(xiàn)的優(yōu)化版本)等網(wǎng)絡(luò)。

NVIDIA TensorRT:

Timing Cache 優(yōu)化加速引擎構(gòu)建

項目團(tuán)隊通過在 NVIDIA TensorRT 中開啟 Timing Cache 優(yōu)化了神經(jīng)網(wǎng)絡(luò)模型的引擎構(gòu)建過程。這種方法利用了模型中重復(fù)的 layer,記錄下算子的優(yōu)化結(jié)果。當(dāng)再次遇到相同的算子時,系統(tǒng)會直接使用優(yōu)選結(jié)果,而非重新評估所有可行的 kernel,從而加速構(gòu)建過程。

Timing Cache 文件下載地址:

https://huggingface.co/CtrlX/ModelReady-TRT/tree/main/Jetson-Xavier-NX-8G/int8Cache

下面借用了 TensorRT cookbook 中的一個示例展示 Timing Cache 的加速效果:

開啟了 Timing Cache 前的日志信息

wKgZomWEJBuAdrmiAAIkzuuj-4U092.png

開啟了 Timing Cache 后的日志信息:

wKgZomWEJBuAeLetAAEjxuUyOX4122.png

日志信息顯示,通過 Timing Cache,多次測試被跳過,TensorRT 直接在 Cache 中找到了最快的算法。經(jīng)過測試的時間顯示:

  • 未啟用 Timing Cache:1707.987785 ms

  • 初次啟用 Timing Cache:774.889298 ms

  • 后續(xù)使用 Timing Cache:32.098293 ms

以下是該項目中與 Timing Cache 相關(guān)的 Build 代碼(models/Build.py)部分,團(tuán)隊還提供了 Timing Cache 融合接口的多種優(yōu)化方式:

wKgZomWEJBuAJEEKAAESx5Q9W7c038.png

NVIDIA NeMo Guardrails:

增強(qiáng) LLM 應(yīng)用的可編程護(hù)欄工具

項目在生成故事部分使用了 NeMo Guardrails,以防止大模型輸出的敏感內(nèi)容被用戶接收。這為 LLM 服務(wù)提供了多種護(hù)欄類型,如輸入護(hù)欄、對話護(hù)欄、檢索護(hù)欄等。同時,項目提供了使用 Colang 編寫的 NeMo Guardrails 示例。

(位于 models/configurations.py )

wKgZomWEJBuAYMAoAACHi6z0jCk736.png

NeMo Guardrails 為 LLM 服務(wù)提供五種主要護(hù)欄類型:

  1. 輸入護(hù)欄(Input Rails):應(yīng)用于用戶輸入,可能拒絕或更改輸入。

  2. 對話護(hù)欄(Dialog Rails):影響 LLM 的提示方式,操作規(guī)范消息并決定是否執(zhí)行某些操作。

  3. 檢索護(hù)欄(Retrieval Rails):應(yīng)用于 RAG 場景下檢索的內(nèi)容,可能拒絕或更改相關(guān)塊。

  4. 執(zhí)行護(hù)欄(Execution Rails):應(yīng)用于需要自定義操作的輸入/輸出。

  5. 輸出護(hù)欄(Output Rails):應(yīng)用于 LLM 生成的輸出,可能拒絕或更改輸出。

wKgZomWEJBuAFrEUAABBRBwAEsg556.png

示例 Colang 配置:

wKgZomWEJByAUxvjAAAf52bkwZ0614.png

在項目的 models/Generater 中的 AzureChatBot 類中,護(hù)欄被用作 Azure OpenAI gpt-3.5-turbo 服務(wù)的一部分。

wKgZomWEJByALR3bAAChngLa_Wk758.png

項目架構(gòu)

UI 設(shè)計原型圖 wKgZomWEJByAKWvmAABdc9pdlBc340.png

項目結(jié)構(gòu)圖

wKgZomWEJByAbu0IAAEJ79fDhe0321.png

項目流程圖

wKgZomWEJByAezfUAAD6Rt1E9SY290.png

*本文中圖片來源于山東科技大學(xué)的團(tuán)隊,若您有任何疑問或需要使用本文中圖片,請聯(lián)系山東科技大學(xué)的團(tuán)隊

點擊“閱讀原文”掃描海報二維碼,鎖定北京時間 1 月 9 日 (星期二) 凌晨 0 點舉行的線上 NVIDIA CES 2024 特別演講。


原文標(biāo)題:NVIDIA 第九屆 Sky Hackathon 優(yōu)秀作品展示 | 靜語畫韻:藝術(shù)中的無聲詩篇

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3778

    瀏覽量

    91176

原文標(biāo)題:NVIDIA 第九屆 Sky Hackathon 優(yōu)秀作品展示 | 靜語畫韻:藝術(shù)中的無聲詩篇

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    OFweek2024 第九屆物聯(lián)網(wǎng)產(chǎn)業(yè)大會圓滿收官!

    OFweek?2024 第九屆物聯(lián)網(wǎng)產(chǎn)業(yè)大會圓滿收官! 2024年12 月19日,由OFweek維科網(wǎng)主辦,OFweek物聯(lián)網(wǎng)承辦的“OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會”在深圳達(dá)實大廈2
    的頭像 發(fā)表于 12-26 14:51 ?143次閱讀
    OFweek2024 <b class='flag-5'>第九屆</b>物聯(lián)網(wǎng)產(chǎn)業(yè)大會圓滿收官!

    億緯鋰能亮相第九屆動力電池應(yīng)用國際峰會

    近期,第九屆動力電池應(yīng)用國際峰會在中國上海舉行,億緯鋰能榮膺“年度影響力企業(yè)”和“年度創(chuàng)新企業(yè)”兩項殊榮。億緯鋰能數(shù)字經(jīng)濟(jì)部總經(jīng)理蘇偉受邀出席并在新能源電池數(shù)字化與先進(jìn)智造論壇做《數(shù)字化制造的進(jìn)展與思考》主題報告。
    的頭像 發(fā)表于 11-29 17:43 ?420次閱讀

    博泰車聯(lián)網(wǎng)榮獲第九屆鈴軒獎兩項大獎

    近日,以“平衡與突破”為主題的2024新汽車技術(shù)合作生態(tài)交流會暨第九屆鈴軒獎盛典在江蘇昆山舉行。博泰車聯(lián)網(wǎng)亮相現(xiàn)場,并展示了融合端側(cè)和云側(cè)大模型功能的8295智能座艙以及星閃數(shù)字鑰匙。博泰的“汽車
    的頭像 發(fā)表于 11-20 15:24 ?415次閱讀

    東軟斬獲第九屆鈴軒獎兩項大獎

    近日,2024新汽車技術(shù)合作生態(tài)交流會(NAT-CES)暨第九屆鈴軒獎盛典舉行,東軟高階智能座艙域控制器榮獲“量產(chǎn)·座艙系統(tǒng)類優(yōu)秀獎”,東軟OneCoreGo全球車載智能出行解決方案5.0榮獲“前瞻·車用軟件類優(yōu)秀獎”。
    的頭像 發(fā)表于 11-19 10:32 ?216次閱讀

    簡儀科技第九屆開源測控開發(fā)者大會精彩回顧

    由簡儀科技主辦的第九屆開源測控開發(fā)者大會,近日在上海圓滿落幕。
    的頭像 發(fā)表于 11-19 09:16 ?328次閱讀

    保隆科技榮獲第九屆鈴軒獎智能駕駛類優(yōu)秀

    近日,2024第九屆新汽車技術(shù)合作生態(tài)交流會暨第九屆鈴軒獎盛典在昆山舉行,保隆科技的“高性能波導(dǎo)4D雷達(dá)”榮獲2024“第九屆鈴軒獎—智能駕駛類優(yōu)秀獎”。保隆科技IDS解決方案系統(tǒng)部李
    的頭像 發(fā)表于 11-18 11:01 ?288次閱讀

    中科創(chuàng)達(dá)亮相第九屆華為全聯(lián)接大會

    此前,第九屆華為全聯(lián)接大會(HUAWEI CONNECT 2024)于上海世博展覽館和上海世博中心盛大召開。作為華為的旗艦盛會,此次大會以 “共贏行業(yè)智能化” 為主題,誠邀思想領(lǐng)袖、商業(yè)精英、技術(shù)
    的頭像 發(fā)表于 11-15 11:00 ?383次閱讀

    地平線榮獲第九屆鈴軒獎前瞻類智能駕駛金獎

    近日,2024新汽車技術(shù)合作生態(tài)交流會暨第九屆鈴軒獎頒獎盛典在昆山盛大啟幕,地平線憑借Horizon SuperDrive全場景智能駕駛解決方案(簡稱 HSD)榮獲第九屆鈴軒獎前瞻類智能駕駛金獎。
    的頭像 發(fā)表于 11-12 11:35 ?346次閱讀

    紫光同芯第二代汽車域控芯片THA6榮膺第九屆鈴軒獎 | 貞光科技代理品牌

    11月9日,昆山,NAT-CES2024,第九屆鈴軒獎?wù)焦肌.?dāng)晚盛典上,鈴軒獎執(zhí)委會頒發(fā)了第九屆鈴軒獎量產(chǎn)類與前瞻類的優(yōu)秀獎、金獎、人氣大獎以及現(xiàn)場評選出的全場
    的頭像 發(fā)表于 11-11 13:48 ?407次閱讀
    紫光同芯第二代汽車域控芯片THA6榮膺<b class='flag-5'>第九屆</b>鈴軒獎 | 貞光科技代理品牌

    極海半導(dǎo)體GALT61120斬獲第九屆鈴軒獎

    近日,2024國汽車供應(yīng)會暨中國汽車零部件年度貢獻(xiàn)獎——第九屆鈴軒盛典在昆山隆重舉行,并現(xiàn)場頒發(fā)了第九屆鈴軒獎量產(chǎn)類與前瞻類各細(xì)分獎項。
    的頭像 發(fā)表于 11-11 11:41 ?382次閱讀

    簡儀科技與您相約第九屆開源測控開發(fā)者大會

    第九屆開源測控開發(fā)者大會,簡儀科技將繼續(xù)秉承開放、創(chuàng)新的精神,深入探討模塊測控領(lǐng)域軟件的重要性,并展示基于開源銳視測控平臺的實踐應(yīng)用,帶來豐富的議題分享。
    的頭像 發(fā)表于 10-21 11:35 ?487次閱讀

    天合智慧能源亮相2024第九屆光伏產(chǎn)業(yè)大會

    10月14日至16日,“2024第九屆光伏產(chǎn)業(yè)大會”于北京隆重舉行,同期舉辦了好光伏品牌頒獎盛典,常州天合智慧能源工程有限公司(簡稱:天合智慧能源)憑借在光伏電站運維領(lǐng)域的卓越表現(xiàn)和創(chuàng)新實力,榮獲
    的頭像 發(fā)表于 10-18 09:26 ?328次閱讀

    思必馳亮相第九屆華為全聯(lián)接大會

    日前,第九屆華為全聯(lián)接大會(HUAWEI CONNECT 2024)在上海世博中心成功召開。本次大會以“共贏行業(yè)智能化”為主題,從戰(zhàn)略、產(chǎn)業(yè)、生態(tài)等方面探討如何通過智能化、數(shù)字化技術(shù)賦能千行萬業(yè),把握新機(jī)遇,共贏智能未來。
    的頭像 發(fā)表于 10-14 14:10 ?382次閱讀

    CET電技術(shù)邀您參加2024第九屆中國新型煤化工國際研討會

    6月27-28日,由煤化客主辦的2024第九屆中國新型煤化工國際研討會將在新疆·烏魯木齊舉行。研討會以當(dāng)下煤化工產(chǎn)業(yè)發(fā)展的熱點和難點問題展開,CET電技術(shù)參展此次研討會,將展示CE
    的頭像 發(fā)表于 06-22 08:35 ?369次閱讀
    CET<b class='flag-5'>中</b>電技術(shù)邀您參加2024<b class='flag-5'>第九屆</b>中國新型煤化工國際研討會

    研華榮獲信通院工業(yè)數(shù)字孿生大賽優(yōu)秀作品

    在信通院和蕪湖市人民政府聯(lián)合主辦的2023第三工業(yè)數(shù)字孿生大賽,研華表現(xiàn)卓越,其研華數(shù)字孿生InsightAPM和研華智慧能源iEMS團(tuán)隊作品均獲優(yōu)秀作品獎,展現(xiàn)其在技術(shù)創(chuàng)新與應(yīng)用
    的頭像 發(fā)表于 04-17 09:48 ?482次閱讀
    研華榮獲信通院工業(yè)數(shù)字孿生大賽<b class='flag-5'>優(yōu)秀作品</b>獎
    主站蜘蛛池模板: 国产乱辈通伦影片在线播放亚洲 | 欧美在线bdsm调教一区| 亚洲精品午夜久久aaa级久久久| 国产精品高清一区二区三区不卡| 韩国三级观影久久| 色五婷婷| 欧美一级视频在线观看欧美| 久久国产乱子伦精品免费午夜| 久久久久久久国产免费看| 最近高清在线视频观看免费| 午夜亚洲国产| 久久伊人操| 黑色丝袜美女被视频网站| 一级片免费看| 天天做天天添天天谢| 免费看大美女大黄大色| 成人激情综合网| 91在线免费观看网站| 男女草逼视频| 婷婷五月情| 欧美三级视频在线播放| 黄色的视频免费看| 午夜小福利| www.天天干| 久久人人澡| 手机在线小视频| 亚洲国产精品久久精品怡红院 | 国产片在线观看狂喷潮bt天堂| 欧美性猛交xxxx乱大交高清| 日本在线不卡视频| 午夜伦理片免费观看在线| 女人爽到喷水的视频大全在线观看| 国产jzjzjz免费大全视频| 天天操狠狠| 免费观看视频网站| 在线天堂中文字幕| 日本在线观看永久免费网站| 极品色天使在线婷婷天堂亚洲| 亚洲第一免费播放区| 国产精品亚洲精品日韩动图| 亚洲视频在线观看一区|