在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenVINO? 賦能 BLIP 實現視覺語言 AI 邊緣部署

研揚科技AAEON ? 2023-09-04 16:21 ? 次閱讀

人類通過視覺和語言感知世界。人工智能的一個長期目標是構建智能體,通過視覺和語言輸入來理解世界,并通過自然語言與人類交流。比如,在《幾行代碼加速 Stable Diffusion,使用 OpenVINO 輕松文生圖》中,我們介紹了利用 OpenVINO 運行 Stable Diffusion 模型,快速實現文生圖應用。讓人人可以成為繪畫大師,利用 AI 隨心作畫。

隨著計算機視覺和自然語言處理領域的快速發展,視覺與語言的融合越來越受到研究人員的重視。在這個背景下,BLIP(Bootstrapping Language-Image Pre-training)作為一種創新的預訓練模型,引起了廣泛關注。該模型在大規模的圖像文本數據集上預訓練深度神經網絡模型,以提高下游視覺語言任務的性能,如圖像文本檢索、圖像字幕和視覺問答。通過聯合訓練圖像和文本數據,為視覺與語言的融合提供了強大的基礎。

BLIP 的預訓練過程涉及兩個關鍵組件:圖像編碼器和文本編碼器。圖像編碼器負責將輸入的圖像轉換為低維向量表示,而文本編碼器則將輸入的文本轉換為另一個低維向量表示。為了實現統一的視覺-語言預訓練,BLIP 采用了一種跨模態約束策略,即在預訓練階段,圖像編碼器和文本編碼器被設計成相互約束的。這樣的約束機制強制模型學習將視覺信息和語言信息進行對齊,從而使得模型在后續任務中能夠更好地處理視覺與語言之間的聯合信息。

除了視覺-語言理解任務,BLIP 還在視覺-語言生成任務中表現出色。在這個任務中,模型需要根據輸入的圖像和文本生成相關的描述或回答問題。BLIP 通過聯合訓練和引入了圖像-文本生成任務,使得模型具備了更強大的圖像描述和問題回答能力。這使得 BLIP 在圖像描述生成和視覺問答等任務上取得了優異的成績。

接下來,我們一起來看看如何在研揚科技(AAEON)的新品 UP Squared Pro 7000 Edge 運行利用 OpenVINO 來優化加速 BLIP 的推理有哪些重點步驟吧。

f6823dfe-4afb-11ee-a20b-92fbcf53809c.png

作為研揚 UP Squared Pro 系列的第三代產品Upsquared Pro 7000 系列[1] 透過高性能計算能力、升級的電路板設計和擴展的顯示接口,提供更大的開發潛力。作為該系列中首款采用 Intel Core/Atom/N 系列處理器(原 Alder Lake-N)的產品,UP Squared Pro 7000 是首款配備板載 LPDDR5 內存的產品,提高了 I/O 的運行速度。此外,UP Squared Pro 7000 在圖像處理和顯示功能方面都有顯著提升,支持 MIPI CSI 照相機,并搭配 Intel UHD 顯卡,可同時進行三臺 4K 顯示器。

1.4 倍以上 CPU 性能提升

UP Squared Pro 7000 采用 Intel Core/Atom/N- 系列處理器,CPU 性能是上一代的 1.4 倍。UP Squared Pro 7000 擁有多達 8 個 Gracemont 內核,支持 OpenVINO Toolkit,以及第 12 代 Intel處理器的 UHD 顯卡,擁有強大的計算能力、優化的推理引擎和圖像處理功能,提供絕佳的智能解決方案。

同步支持 3 臺 4K 顯示器

UP Squared Pro 7000 配備 HDMI 2.0b、DP 1.2 埠和透過 USB Type-C 的 DP 1.4a,擁有出色的顯示接口。UP Squared Pro 7000 整合了 GPU 和多重輸出,可以同步支持三個 4K 顯示器,非常適合用于數字廣告牌等視覺導向型的相關應用。

雙倍的高速系統內存

作為 UP Squared Pro 系列中第一塊配備板載 LPDDR5 系統內存的板卡,UP Squared Pro 7000 搭載了 16GB 的系統內存,是上一代的兩倍。此外,快達 4800MHz 的內存速度讓用戶的帶寬和數據傳輸速度加倍,同時也更加省電。

全面的 I/O 升級

除了維持 UP Squared Pro 系列 4" x 4" 的緊湊外形之外,UP Squared Pro 7000 在電路板設計上更為精實。UP Squared Pro 7000 配備了兩個 2.5GbE、三個 USB 3.2 和一個 FPC 端口,可外接更多像是 MIPI CSI 相機的外圍設備。將這些特色與板載 LPDDR5 及性能強大的 CPU 相結合,非常適合用于智慧工廠機器人方面的視覺解決方案。

第一步:安裝相應工具包、加載模型并轉換為 OpenVINO IR 格式

本次代碼示例需要首先安裝 BLIP 相應工具包。

!pip install "transformers >= 4.26.0"

向右滑動查看完整代碼

然后下載及加載相應的 PyTorch 模型。在本問中,您將使用可從 Hugging Face 下載的 blip-vqa-base [2] 基本模型。同樣的操作也適用于 BLIP 系列中的其它模型。盡管該模型類是為執行問答而設計的,但其組件也可以用于圖像字幕。要開始使用該模型,需要使用 from_pretrained 方法實例化 BlipForQuestionAnswering 類。BlipProcessor 是一個助手類,用于準備文本和視覺模態的輸入數據以及生成結果的后處理。

import sysimport timefrom PIL import Imagefrom transformers import BlipProcessor, BlipForQuestionAnswering
sys.path.append("../utils")from notebook_utils import download_file
# Get model and processorprocessor = BlipProcessor.from_pretrained("Salesforce/blip-vqa-base")model = BlipForQuestionAnswering.from_pretrained("Salesforce/blip-vqa-base")

接下來,我們看看如何將原始模型轉換為 OpenVINO IR格式的模型,并利用 OpenVINO 進行相應的優化以及部署推理加速。

第二步:將模型轉換為 OpenVINO IR 格式

根據我們前面的介紹,BLIP 模型包含視覺模型、文本編碼和文本解碼三個模型,因此我們需要分別將這三個模型轉換為 OpenVINO IR 格式。視覺模型的轉換操作比較常規,具體代碼可以參考我們的 notebook[3],這里重點介紹一下文本編碼和文本解碼模型的轉換部分。

文本編碼器轉換

視覺問答任務使用文本編碼器來構建問題的嵌入表示。它采用經過分詞后的問題的 input_ids,并輸出從視覺模型獲得的圖像嵌入和它們的注意力掩碼。根據問題文本的不同,標記化輸入后的標記數量可能不同。因此,為使用標記的模型輸入保留動態形狀,dynamic_axes 參數負責在 torch.onx.export 中保留輸入的動態特定維度。代碼如下:

TEXT_ENCODER_OV = Path("blip_text_encoder.xml")TEXT_ENCODER_ONNX = TEXT_ENCODER_OV.with_suffix(".onnx")
text_encoder = model.text_encodertext_encoder.eval()
# if openvino model does not exist, convert it to onnx and then to IRif not TEXT_ENCODER_OV.exists(): if not TEXT_ENCODER_ONNX.exists(): # prepare example inputs for ONNX export image_embeds = vision_outputs[0] image_attention_mask = torch.ones(image_embeds.size()[:-1], dtype=torch.long) input_dict = {"input_ids": inputs["input_ids"], "attention_mask": inputs["attention_mask"], "encoder_hidden_states": image_embeds, "encoder_attention_mask": image_attention_mask} # specify variable length axes dynamic_axes = {"input_ids": {1: "seq_len"}, "attention_mask": {1: "seq_len"}} # export PyTorch model to ONNX with torch.no_grad(): torch.onnx.export(text_encoder, input_dict, TEXT_ENCODER_ONNX, input_names=list(input_dict), dynamic_axes=dynamic_axes) # convert ONNX model to IR using model conversion Python API, use compress_to_fp16=True for compressing model weights to FP16 precision ov_text_encoder = mo.convert_model(TEXT_ENCODER_ONNX, compress_to_fp16=True) # save model on disk for next usages serialize(ov_text_encoder, str(TEXT_ENCODER_OV)) print(f"Text encoder successfuly converted and saved to {TEXT_ENCODER_OV}")else: print(f"Text encoder will be loaded from {TEXT_ENCODER_OV}")

向右滑動查看完整代碼

文本解碼器轉換

文本解碼器負責使用圖像(以及問題,如果需要的話)的表示來生成模型輸出(問題的答案或標題)的分詞 token 序列。生成方法基于這樣的假設,即單詞序列的概率分布可以分解為下一個單詞條件分布的乘積。換言之,模型預測由先前生成的 token 引導循環生成下一個 token,直到達到停止生成的條件(生成達到最大長度序列或獲得的字符串結束的 token)。在預測概率之上選擇下一個 token的方式由所選擇的解碼方法來驅動。與文本編碼器類似,文本解碼器可以處理不同長度的輸入序列,并且需要保留動態輸入形狀。這部分特殊的處理可由如下代碼完成:

text_decoder = model.text_decodertext_decoder.eval()
TEXT_DECODER_OV = Path("blip_text_decoder.xml")TEXT_DECODER_ONNX = TEXT_DECODER_OV.with_suffix(".onnx")
# prepare example inputs for ONNX exportinput_ids = torch.tensor([[30522]]) # begin of sequence token idattention_mask = torch.tensor([[1]]) # attention mask for input_idsencoder_hidden_states = torch.rand((1, 10, 768)) # encoder last hidden state from text_encoderencoder_attention_mask = torch.ones((1, 10), dtype=torch.long) # attention mask for encoder hidden states
input_dict = {"input_ids": input_ids, "attention_mask": attention_mask, "encoder_hidden_states": encoder_hidden_states, "encoder_attention_mask": encoder_attention_mask}# specify variable length axesdynamic_axes = {"input_ids": {1: "seq_len"}, "attention_mask": {1: "seq_len"}, "encoder_hidden_states": {1: "enc_seq_len"}, "encoder_attention_mask": {1: "enc_seq_len"}}
# specify output names, logits is main output of modeloutput_names = ["logits"]
# past key values outputs are output for caching model hidden statepast_key_values_outs = []text_decoder_outs = text_decoder(**input_dict)for idx, _ in enumerate(text_decoder_outs["past_key_values"]): past_key_values_outs.extend([f"out_past_key_value.{idx}.key", f"out_past_key_value.{idx}.value"])

向右滑動查看完整代碼

接下來,對于文本解碼器的轉換,還有來自前一步驟的隱藏狀態的額外輸入。與輸出類似,在模型導出為 ONNX 格式后,它們將被展平。需要使用新的輸入層更新 dynamic_axies 和 input_names。因此,其后面的轉換過程與前面的文本編碼器的轉換過程類似,在本文中不再贅述。

第三步:運行 OpenVINO 推理

如前所述,在這里我們將主要展示 BLIP 進行視覺問答以及圖像字幕的流水線如何搭建、以及如何運行 OpenVINO 來進行推理的情況。

圖像字幕

視覺模型接受 BlipProcessor 預處理的圖像作為輸入,并生成圖像嵌入,這些圖像嵌入直接傳遞給文本解碼器以生成字幕標記。生成完成后,分詞 tokenizer 的輸出序列被提供給 BlipProcessor,用于使用 tokenizer 解碼為文本。

定義 OVBLIPModel 類:

class OVBlipModel: """ Model class for inference BLIP model with OpenVINO """ def __init__(self, config, decoder_start_token_id:int, vision_model, text_encoder, text_decoder): """ Initialization class parameters """ self.vision_model = vision_model self.vision_model_out = vision_model.output(0) self.text_encoder = text_encoder self.text_encoder_out = text_encoder.output(0) self.text_decoder = text_decoder self.config = config self.decoder_start_token_id = decoder_start_token_id self.decoder_input_ids = c

向右滑動查看完整代碼

定義圖像字幕函數如下,

def generate_caption(self, pixel_values:torch.Tensor, input_ids:torch.Tensor = None, attention_mask:torch.Tensor = None, **generate_kwargs): """ Image Captioning prediction Parameters: pixel_values (torch.Tensor): preprocessed image pixel values input_ids (torch.Tensor, *optional*, None): pregenerated caption token ids after tokenization, if provided caption generation continue provided text attention_mask (torch.Tensor): attention mask for caption tokens, used only if input_ids provided Retruns: generation output (torch.Tensor): tensor which represents sequence of generated caption token ids """ batch_size = pixel_values.shape[0]
image_embeds = self.vision_model(pixel_values.detach().numpy())[self.vision_model_out]
image_attention_mask = torch.ones(image_embeds.shape[:-1], dtype=torch.long)
if isinstance(input_ids, list): input_ids = torch.LongTensor(input_ids) elif input_ids is None: input_ids = ( torch.LongTensor([[self.config.text_config.bos_token_id, self.config.text_config.eos_token_id]]) .repeat(batch_size, 1) ) input_ids[:, 0] = self.config.text_config.bos_token_id attention_mask = attention_mask[:, :-1] if attention_mask is not None else None
outputs = self.text_decoder.generate( input_ids=input_ids[:, :-1], eos_token_id=self.config.text_config.sep_token_id, pad_token_id=self.config.text_config.pad_token_id, attention_mask=attention_mask, encoder_hidden_states=torch.from_numpy(image_embeds), encoder_attention_mask=image_attention_mask, **generate_kwargs, )
return outputs

向右滑動查看完整代碼

視覺問答

視覺回答的流水線看起來很相似,但有額外的問題處理。在這種情況下,由 BlipProcessor 標記的圖像嵌入和問題被提供給文本編碼器,然后多模態問題嵌入被傳遞給文本解碼器以執行答案的生成。

在 OVBLIPModel 類內部同理可定義視覺問答函數如下:

def generate_answer(self, pixel_values:torch.Tensor, input_ids:torch.Tensor, attention_mask:torch.Tensor, **generate_kwargs): """ Visual Question Answering prediction Parameters: pixel_values (torch.Tensor): preprocessed image pixel values input_ids (torch.Tensor): question token ids after tokenization attention_mask (torch.Tensor): attention mask for question tokens Retruns: generation output (torch.Tensor): tensor which represents sequence of generated answer token ids """ image_embed = self.vision_model(pixel_values.detach().numpy())[self.vision_model_out] image_attention_mask = np.ones(image_embed.shape[:-1], dtype=int) if isinstance(input_ids, list): input_ids = torch.LongTensor(input_ids) question_embeds = self.text_encoder([input_ids.detach().numpy(), attention_mask.detach().numpy(), image_embed, image_attention_mask])[self.text_encoder_out] question_attention_mask = np.ones(question_embeds.shape[:-1], dtype=int)
bos_ids = np.full((question_embeds.shape[0], 1), fill_value=self.decoder_start_token_id)
outputs = self.text_decoder.generate( input_ids=torch.from_numpy(bos_ids), eos_token_id=self.config.text_config.sep_token_id, pad_token_id=self.config.text_config.pad_token_id, encoder_hidden_states=torch.from_numpy(question_embeds), encoder_attention_mask=torch.from_numpy(question_attention_mask), **generate_kwargs, ) return outputs

向右滑動查看完整代碼

初始化 OpenVINO 運行時并運行推理

初始化 OpenVINO Core 對象,選擇推理設備,并加載、編譯模型

# create OpenVINO Core object instancecore = Core()
import ipywidgets as widgets
device = widgets.Dropdown( options=core.available_devices + ["AUTO"], value='AUTO', description='Device:', disabled=False,)
device
# load models on deviceov_vision_model = core.compile_model(VISION_MODEL_OV, device.value)ov_text_encoder = core.compile_model(TEXT_ENCODER_OV, device.value)ov_text_decoder = core.compile_model(TEXT_DECODER_OV, device.value)ov_text_decoder_with_past = core.compile_model(TEXT_DECODER_WITH_PAST_OV, device.value)

向右滑動查看完整代碼

運行圖像字幕推理

out = ov_model.generate_caption(inputs["pixel_values"], max_length=20)caption = processor.decode(out[0], skip_special_tokens=True)fig = visualize_results(raw_image, caption)

運行視覺問答推理

start = time.perf_counter()out = ov_model.generate_answer(**inputs, max_length=20)end = time.perf_counter() - startanswer = processor.decode(out[0], skip_special_tokens=True)fig = visualize_results(raw_image, answer, question)

小結

整個的步驟就是這樣!現在就開始跟著我們提供的代碼和步驟,動手試試用 Open VINO 和 BLIP 吧。

除此之外,為了方便大家了解并快速掌握 OpenVINO 的使用,我們還提供了一系列開源的 Jupyter notebook demo。運行這些 notebook,就能快速了解在不同場景下如何利用 OpenVINO 實現一系列、包括計算機視覺、語音及自然語言處理任務。OpenVINO notebooks 的資源可以在 GitHub 這里下載安裝:https://github.com/openvinotoolkit/openvino_notebooks 。

研揚科技簡介

研揚科技成立于 1992 年,是工業物聯網和人工智能邊緣解決方案的領先設計商和制造商之一。以不斷創新為核心價值觀,研揚科技為市場帶來可靠、高質量的計算平臺,包括工業主板和系統、強固式平板電腦嵌入式人工智能系統、uCPE 網絡設備以及 LoRaWAN/WWAN 解決方案。研揚科技還帶來行業領先的經驗和知識,以在全球范圍內提供 OEM/ODM 服務。此外,研揚科技與諸多城市和政府緊密合作,開發和部署智能城市生態系統,提供個性化平臺和端到端解決方案。研揚科技與頂級芯片設計商緊密合作,提供穩定、可靠的平臺,并被認可為 Intel物聯網解決方案聯盟的鈦金級成員。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31262

    瀏覽量

    269621
  • 人工智能
    +關注

    關注

    1792

    文章

    47497

    瀏覽量

    239197
  • 模型
    +關注

    關注

    1

    文章

    3279

    瀏覽量

    48970
  • Open
    +關注

    關注

    0

    文章

    18

    瀏覽量

    11092
收藏 人收藏

    評論

    相關推薦

    Arm計算平臺NVIDIA Project DIGITS實現突破性AI性能

    運行新的模型(如語言模型、視覺模型或多模態模型)變得至關重要。鑒于 AI 創新的步伐空前加快,行業需要確保開發者在云端及邊緣側均能獲得高性能算力,從而直接獲得更多的新功能。
    的頭像 發表于 01-13 11:11 ?174次閱讀

    虹軟AI視覺雷鳥V3 AI拍攝眼鏡發布

    技術,支持拍照、視頻錄制、開放式耳機等多種實用功能。作為雷鳥V3整體視覺系統的技術方,虹軟充分融合計算攝影與AI技術,為雷鳥V3的影像與AI
    的頭像 發表于 01-08 10:58 ?254次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    應用而設計,模塊的參數如下圖所示。 這個模塊有著一個很吸引人的特點與飛槳低代碼開發工具 PaddleX 完美適配,配合飛槳星河社區 Al Studio, 可以實現一鍵訓練;配合凌智視覺算法部署庫,用戶可以
    發表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何在邊緣部署OpenCV

    1 簡介 Opencv(Open Source Computer Vision Library)是一個基于開源發行的跨平臺計算機視覺庫,它實現了圖像處理和計算機視覺方面的很多通用算法,已成為計算機
    發表于 12-14 09:31

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    系統的智能化水平,還極大地拓展了其應用范圍, 使得嵌入式系統在智能家居、智能交通、智能醫療等領域有了更深層次的運用。AI技術的嵌入,已經成為未來嵌入式系統發展 的一個重要趨勢。踏入邊緣部署的第一步
    發表于 12-06 17:20

    使用OpenVINO Model Server在哪吒開發板上部署模型

    OpenVINO Model Server(OVMS)是一個高性能的模型部署系統,使用C++實現,并在Intel架構上的部署進行了優化,使用Open
    的頭像 發表于 11-01 14:19 ?322次閱讀
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒開發板上<b class='flag-5'>部署</b>模型

    OpenVINO 2024.4持續提升GPU上LLM性能

    本次新版本在整個 OpenVINO 產品系列中引入了重要的功能和性能變化,使大語言模型 (LLM) 的優化和部署在所有支持的場景中更容易、性能更高,包括邊緣和數據中心環境的
    的頭像 發表于 10-12 09:41 ?502次閱讀
    <b class='flag-5'>OpenVINO</b> 2024.4持續提升GPU上LLM性能

    三行代碼完成生成式AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分為兩個安裝包分別是基礎包與生成式AI支持包,新發布的GenAI開發包支持C++與Python語言接口
    的頭像 發表于 08-30 16:49 ?433次閱讀
    三行代碼完成生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持,實現邊緣實時醫療、工業和科學 AI 應用

    美敦力、SETI協會以及領先的制造商正在構建? NVIDIA IGX 系統, 為 ?AI 在工業邊緣 ? ? COMPUTEX — 2024 年 6 月 2 日 — NVIDIA
    發表于 06-03 09:48 ?327次閱讀
      NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持,<b class='flag-5'>實現</b><b class='flag-5'>邊緣</b>實時醫療、工業和科學 <b class='flag-5'>AI</b> 應用

    簡單兩步使用OpenVINO?搞定Qwen2的量化與部署任務

    英特爾 OpenVINO? 工具套件是一款開源 AI 推理優化部署的工具套件,可幫助開發人員和企業加速生成式人工智能 (AIGC)、大語言模型、計算機
    的頭像 發表于 04-26 09:39 ?1764次閱讀
    簡單兩步使用<b class='flag-5'>OpenVINO</b>?搞定Qwen2的量化與<b class='flag-5'>部署</b>任務

    研揚攜手英特爾,聯合舉辦創AI百城行(武漢站):用OpenVINO?AI邊緣計算平臺

    邊緣計算作為實現智能化、高效化數據處理的關鍵技術,日益受到業界的廣泛關注。為了進一步推動AI邊緣計算技術的發展與應用,3月27日研揚科技與英特爾在武漢共同舉辦了以“用
    的頭像 發表于 04-04 08:05 ?282次閱讀
    研揚攜手英特爾,聯合舉辦創<b class='flag-5'>AI</b>百城行(武漢站):用<b class='flag-5'>OpenVINO</b>?<b class='flag-5'>賦</b><b class='flag-5'>能</b><b class='flag-5'>AI</b>于<b class='flag-5'>邊緣</b>計算平臺

    簡單三步使用OpenVINO?搞定ChatGLM3的本地部署

    英特爾 OpenVINO? 工具套件是一款開源 AI 推理優化部署的工具套件,可幫助開發人員和企業加速生成式人工智能 (AIGC)、大語言模型、計算機
    的頭像 發表于 04-03 18:18 ?2145次閱讀
    簡單三步使用<b class='flag-5'>OpenVINO</b>?搞定ChatGLM3的本地<b class='flag-5'>部署</b>

    【轉載】英特爾開發套件“哪吒”快速部署YoloV8 on Java | 開發者實戰

    OpenVINO 工具套件基于OneAPI開發,可以加快高性能計算機視覺和深度學習應用開發速度的工具套件,適用于從邊緣到云的各種英特爾計算平臺上,幫助用戶更快地將更準確的真實世界數據的AI
    的頭像 發表于 03-23 08:05 ?603次閱讀
    【轉載】英特爾開發套件“哪吒”快速<b class='flag-5'>部署</b>YoloV8 on Java | 開發者實戰

    基于英特爾哪吒開發者套件平臺來快速部署OpenVINO Java實戰

    OpenVINO 工具套件基于OneAPI開發,可以加快高性能計算機視覺和深度學習應用開發速度的工具套件,適用于從邊緣到云的各種英特爾計算平臺上
    的頭像 發表于 03-21 18:24 ?1546次閱讀
    基于英特爾哪吒開發者套件平臺來快速<b class='flag-5'>部署</b><b class='flag-5'>OpenVINO</b> Java實戰

    AI邊緣計算機應用場景廣泛!大語言模型與數字人結合方案在邊緣側落地

    。 ? 當下,AI邊緣側的部署正在成為趨勢,包括近年來備受矚目的大語言模型,在邊緣側的應用也是業界探索的焦點,
    的頭像 發表于 01-16 01:11 ?4503次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>邊緣</b>計算機應用場景廣泛!大<b class='flag-5'>語言</b>模型與數字人結合方案在<b class='flag-5'>邊緣</b>側落地
    主站蜘蛛池模板: 色费女人18女人毛片免费视频| 天天综合网在线| 免费aⅴ网站| 欧美日韩一卡2卡三卡4卡新区| 日本一区不卡视频| 综合伊人久久| 亚洲一区二区三区在线视频| 成人欧美另类人妖| 手机看片福利久久| 人人干人人艹| 西西人体大胆午夜gog0| 国产又爽又黄又粗又大| 天天艹| 夜夜操网站| 电影一区二区三区| 偷偷操不一样的久久| 在线播放国产不卡免费视频| 丁香六月在线观看| 国产美女精品三级在线观看| 一级黄色片在线看| 久久riav国产精品| 5252a我爱haose01亚洲| 69中国xxxxxxxx18| 中文天堂最新版在线中文| 神马电影天堂网| 日韩色区| 国产特级| 日本美女黄色一级片| 丁香在线| 日本一区二区免费在线观看 | 狠狠色丁香婷婷综合最新地址| 美女被免费视频网站九色| 欧美性喷潮| 美女视频网站色| china3p单男精品自拍| av在线色| 午夜黄色毛片| 69xxxxx日本护士| xxxx性×xx| 亚洲高清国产一线久久| 四虎永久精品免费网址大全|