在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

開發和部署ML模型介紹

jf_pJlTbmA9 ? 來源:NVIDIA ? 作者:NVIDIA ? 2023-07-05 16:30 ? 次閱讀

本系列介紹 開發和部署 ( M L ) 模型 。本文概述了 ML 工作流,考慮到使用機器學習和數據科學來實現業務價值所涉及的各個階段。在第 2 部分中,訓練并保存 ML 模型 可以將其部署為 ML 系統的一部分。第 3 部分向您展示了 如何部署 ML 模型到 Google 云平臺 ( GCP )。

當使用 machine learning 解決問題并提供業務價值時,您使用的技術、工具和模型會根據用例而變化。然而,當從一個想法轉移到一個已部署的模型時,需要經過一組通用的工作流階段。

之前,我討論過 如何搭建機器學習微服務 和 如何使用 Streamlit 和 FastAPI 構建即時機器學習 Web 應用程序 。在這兩個教程中, ML 模型僅在本地運行。這對于演示來說已經足夠了,但如果您的模型必須在互聯網上持續提供預測,則這是不切實際的。

機器學習工作流

ML 工作流包含以下主要組件:

勘探和數據處理

建模

部署

每個階段都可以細分為更小的程序。

ml-workflow-udacity-625x337.png 圖 1. 機器學習工作流
(Source: Become a Machine Learning Engineer Nanodegree (Udacity) )

圖 1 顯示了典型機器學習項目的端到端工作流的可視化表示。下面是有關每個組件的更多信息

勘探和加工

重要的工作是確保用于 ML 項目的數據集質量良好,因為這些數據是建模階段可靠性能的基礎。如果您向模型提供低質量的數據,則可能會產生較差或錯誤的結果。

這部分工作流程通常占用最多的時間。數據勘探和處理可進一步分為以下幾個階段:

Data retrieval : ML 項目需要高質量的數據,而這些數據并不總是可以立即訪問的。您可能需要實施數據采集技術,例如刮取或手動數據采集。

數據清理和探索 :數據也很少能夠立即處理。您必須對其進行清理,以在所需的用例中獲得最佳性能。您還應該了解正在使用的數據集,因此需要進行探索。

數據準備或轉換 :在最后階段,對數據進行設計,以提取正在解決的現實世界問題的代表性特征。然后將數據轉換為 ML 模型可以使用的格式。

建模

當大多數數據從業者想到機器學習時,他們的注意力都集中在建模組件上。建模階段包括以下階段:

模型開發和培訓 :這一階段是關于向機器學習模型提供數據,然后調整超參數,以便模型可以很好地推廣到不可見的數據輸入。

模型驗證和評估 :必須評估機器學習模型的性能,以確定其行為是否符合預期。這涉及到確定一個數字度量,以評估模型對未知數據輸入的性能。

模型部署

最后,部署階段涉及使最終用戶可以訪問 ML 模型,監控模型在生產中的性能,并更新模型。

部署 ML 模型不僅僅是孤立的模型。數據從業者部署整個 ML 管道,這決定了如何編碼和自動化端到端工作流。

如何實現這一點有幾個選項。

不同的模型部署選項

生成 ML 應用程序是為了解決特定問題。因此,任何 ML 應用程序的真正價值通常只有在模型或算法在生產環境中被積極使用時才能實現。

將 ML 模型從離線研究環境轉換到實時生產環境的過程稱為 deployment 。

部署是 ML 工作流的一個關鍵組件。它使模型能夠達到其預期目的。在項目規劃階段,必須考慮如何部署 ML 模型。在決定部署類型時要考慮的因素超出了本文的范圍。然而,我提供了一些關于可用選項的見解。

Web 服務

部署機器學習模型最直接的選擇是創建 web 服務。這意味著通過查詢 web 服務來獲得來自模型的預測。

使用 web 服務部署機器學習模型包括以下主要步驟:

Building the model: 必須創建 ML 模型,然后將其包裝在 web 服務中。然而,模型構建通常需要與主 web 服務應用程序不同的一組資源。將模型培訓和 web 服務應用程序環境分開是有意義的。

構建 web 應用程序: 訓練模型后,必須將其持久化,以便將其導入 web 應用程序。 web 應用程序是使用開發 web 服務的框架(如 Flask 、 FastAPI 和 Django )包裝的推理邏輯。

托管 web 服務: 為了讓您的 web 服務全天候、自動化和可擴展,您必須托管應用程序。這可以通過使用托管提供商來完成。在本系列的第三部分中,您將使用 Google App Engine 。

有關前兩個步驟的更多信息,請參見 Building a Machine Learning Microservice with FastAPI 。

無服務器計算

使用無服務器計算部署機器學習模型意味著您希望為模型預測提供服務,而不必擔心如何管理底層基礎設施,例如計算資源。

仍然有一個服務器。所發生的一切是,您將管理服務器的責任交給了云提供商?,F在,您可以更加專注于編寫性能更好的代碼。

無服務器計算提供程序的示例包括:

Amazon Web Services (AWS) Lambda

Microsoft Azure

Google Cloud Functions

要使用 Google Cloud Functions 部署機器學習模型,請參閱本系列的第 3 部分“實踐中的機器學習:在 Google Cloud Provider 上部署 ML 模型[LINK]”。

托管 AI

一個管理的人工智能云正是它在錫上所說的。您提供了一個串行化模型,云提供商以較少的控制為代價,為您完全管理基礎架構。換句話說,您可以獲得云計算的優化好處,而不必成為任何方面的專家。

托管 AI 云提供商的示例包括:

Amazon SageMaker

Google Cloud AI Platform

IBM Watson

Microsoft Azure Machine Learning

接下來是什么?

現在您已經了解了端到端 ML 工作流,并且已經看到了部署 ML 模型的可能方法,請繼續第 2 部分 Machine Learning in Practice: Build an ML Model ,在這里您將根據一些數據訓練模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4991

    瀏覽量

    103137
  • AI
    AI
    +關注

    關注

    87

    文章

    30979

    瀏覽量

    269251
  • 機器學習
    +關注

    關注

    66

    文章

    8421

    瀏覽量

    132703
收藏 人收藏

    評論

    相關推薦

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發
    發表于 12-14 09:05

    eIQ軟件對ML模型有何作用

    隨著產品越來越復雜,具有了更強大的處理能力和更高的速度,使得機器學習(ML)技術逐漸擴展到邊緣應用。借助eIQ軟件,現在可以非常輕松地將新的ML模型引入邊緣設備。機器學習...
    發表于 12-20 07:01

    介紹一種Arm ML嵌入式評估套件

    開發人員能夠優化 ML 模型,以便在內存、功率限制和存儲限制的設備上進行部署。有不同的優化技術,包括量化、修剪和聚類, 它們是 TensorFlow
    發表于 08-12 15:35

    通過Cortex來非常方便的部署PyTorch模型

    到軟件中。如何從“跨語言語言模型”轉換為谷歌翻譯?在這篇博客文章中,我們將了解在生產環境中使用 PyTorch 模型意味著什么,然后介紹一種允許部署任何 PyTorch
    發表于 11-01 15:25

    部署基于嵌入的機器學習模型

    1、如何在生產中部署基于嵌入的機器學習模型  由于最近大量的研究,機器學習模型的性能在過去幾年里有了顯著的提高。雖然這些改進的模型開辟了新的可能性,但是它們只有在可以
    發表于 11-02 15:09

    如何將ML模型部署到微控制器?

    大家好,的我正在嘗試將 ML 模型部署到微控制器,我有兩塊 STM32L4R9I-Discovery 和 STM32H7B3I-Discovery 板。實驗及相關結果如下所示:我使用 TFLite
    發表于 12-29 13:09

    使用Flask和Docker容器化一個簡單的ML模型評分服務器

    我們將使用兩種不同的方法演示 ML 模型部署:使用 Docker 和 Kubernetes 的第一原則方法;然后使用 Seldon Core Kubernetes 本機框架來簡化 ML
    的頭像 發表于 04-15 16:56 ?3503次閱讀

    GTC2022大會亮點:Modulus用于開發physics-ML模型的AI框架

    GTC2022大會亮點:Modulus用于開發physics-ML模型的AI框架,速度比數值方法快許多個數量級。
    的頭像 發表于 03-24 17:30 ?1779次閱讀
    GTC2022大會亮點:Modulus用于<b class='flag-5'>開發</b>physics-<b class='flag-5'>ML</b><b class='flag-5'>模型</b>的AI框架

    管理 ML 模型部署中的權衡

    情況的軟件、固件、開發工具和硬件的正確組合。在 Samsara 的機器學習和計算機視覺 (ML/CV) 團隊中,我們構建模型開發算法,幫助我們的客戶提高其運營的安全性、效率和可持續性
    的頭像 發表于 07-21 09:19 ?649次閱讀

    用于區分人類和大象的ML模型

    電子發燒友網站提供《用于區分人類和大象的ML模型.zip》資料免費下載
    發表于 06-14 11:02 ?0次下載
    用于區分人類和大象的<b class='flag-5'>ML</b><b class='flag-5'>模型</b>

    如何部署ML模型到Google云平臺

    實踐中的機器學習:在 Google 云平臺上部署 ML 模型
    的頭像 發表于 07-05 16:30 ?679次閱讀
    如何<b class='flag-5'>部署</b><b class='flag-5'>ML</b><b class='flag-5'>模型</b>到Google云平臺

    機器學習構建ML模型實踐

    實踐中的機器學習:構建 ML 模型
    的頭像 發表于 07-05 16:30 ?720次閱讀

    PerfXCloud大模型開發部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發者和企業量身打造的AI開發部署平臺。它專注于滿足大模型的微調和推理需求,為
    的頭像 發表于 07-02 10:27 ?386次閱讀
    PerfXCloud大<b class='flag-5'>模型</b><b class='flag-5'>開發</b>與<b class='flag-5'>部署</b>平臺開放注冊

    大語言模型如何開發

    大語言模型開發是一個復雜且細致的過程,涵蓋了數據準備、模型架構設計、訓練、微調和部署等多個階段。以下是對大語言模型
    的頭像 發表于 11-04 10:14 ?151次閱讀

    大語言模型開發框架是什么

    大語言模型開發框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發表于 12-06 10:28 ?131次閱讀
    主站蜘蛛池模板: 日本xxx69hd| 奇米影视四色7777久久精品| 亚洲欧美色一区二区三区| 婷婷亚洲综合| 欧美性黑人极品hd网站| 222.www免费观看| 欧美一级做一a做片性视频| 97一区二区三区| 69日本xxxxxxxxx98| h黄视频在线观看| 男男失禁play 把尿bl| 二区视频在线| 久久精品国产精品亚洲人人| 免费国产h视频在线观看| 国产精品资源在线观看| 奇米激情| www 在线播放| www.色日本| 日日爽天天干| 四虎影视永久在线 yin56xyz| 亚洲乱码一区二区三区在线观看| 在线免费观看毛片网站| 色网站欧美| 色在线免费观看| 久久a毛片| 午夜神马福利| 天天拍夜夜操| 午夜高清在线观看免费6| 国内精品网站| 国产小视频免费| 在线中文字幕一区| 亚洲人成网站在线在线| 亚洲狠狠婷婷综合久久久久图片 | 豆国产97在线 | 欧洲| 国产亚洲人成网站观看| 午夜视频一区二区| a级男女性高爱潮高清试| 欧美性黑人极品1819hd| 中出丰满大乳中文字幕| 欧美精品成人久久网站| 夜夜操夜夜爽|