在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Google Cloud如何守護大模型安全

谷歌開發者 ? 來源:谷歌云服務 ? 2024-11-15 13:36 ? 次閱讀

以下文章來源于谷歌云服務,作者 Google Cloud

楊鵬

Google Cloud 安全專家

大模型就像神通廣大的 "哪吒",能寫文章、畫畫、編程,無所不能。但如果哪吒被惡意操控,后果不堪設想!而且,培養這樣的大模型需要大量投入,如果被 "黑化",損失也是巨大的。

這樣看,大模型的安全關系到每個人,Google Cloud 提供了安全工具和服務,能保護大模型不被壞人利用,避免 "黑化"。

想了解更多關于大模型安全和 Google Cloud 的相關知識?請繼續關注我們的系列文章!

大模型安全概要

生成式 AI 發展迅速,但也面臨安全風險。MITRE ATLAS、NIST AI RMF 和 OWASP AI Top 10 等安全標準組織,總結了生成式 AI 的主要安全威脅,主要包括:

●對抗性攻擊:攻擊者擾亂模型輸入或竊取模型信息,導致錯誤輸出或信息泄露。

●數據投毒:攻擊者污染訓練數據,使模型產生偏差或后門。

●模型竊取:攻擊者竊取模型結構和參數,用于復制或攻擊。

●濫用和惡意使用:模型被用于生成虛假信息、垃圾郵件等。

●隱私和安全:模型可能泄露用戶隱私或存在安全漏洞。

●模型篡改:攻擊者修改模型參數、邏輯或數據,改變模型行為。

此外,公眾還關注生成式 AI 的法律合規、治理、偏差、透明度、環境影響等問題。解決這些問題,才能確保生成式 AI 安全、可靠、負責任地發展。

在這當中,模型篡改 (Model Tampering,也可稱為模型投毒-Model Poisoning) 這類的威脅涵蓋了對模型的任何未經授權的修改,包括但不限于對模型訓練或者微調注入后門或降低性能,修改模型參數或代碼導致模型無法正常工作或產生錯誤結果。這類威脅對應的漏洞一般被認為利用難度比較高,因為攻擊者不僅要突破層層基礎安全縱深防御,還需要熟悉大模型訓練和優化,了解如何繞過代碼審計和各類監控且可以有效地影響到模型訓練工作。

但是,近期發生的一些模型投毒事故證明,熟悉流程和相關大模型技術的內部攻擊者可以放大這類風險,甚至可以使得投入數千萬美元的訓練工作毀于一旦。同時,隨著黑產灰產的不斷演進,未來這類威脅帶來的影響可能還會增大,上面說的讓模型 "黑化" 的風險并不是危言聳聽。

理解大模型訓練的安全風險

下圖是在 Google Cloud 上進行生成式 AI 訓練,部署和推理的典型架構。圖中畫紅框的部分是大模型訓練的范疇。

d2143bc6-9db5-11ef-93f3-92fbcf53809c.png

首先讓我們從基礎設施、工具鏈、供應鏈、模型代碼和配置等方面,拆解一下模型篡改可能面臨的風險類別:

基礎設施

● 未經授權的訪問:攻擊者可能入侵模型訓練或部署的服務器、云平臺等基礎設施,直接篡改模型文件或運行環境。這包括利用系統漏洞、弱口令、社會工程學等手段獲取訪問權限。

●惡意代碼注入:攻擊者可能在基礎設施中植入惡意代碼,例如后門程序、rootkit 等,用于監控模型行為、竊取數據或篡改模型輸出。

●拒絕服務攻擊:攻擊者可能對基礎設施發起 DDoS 攻擊,導致模型無法正常提供服務,影響用戶體驗和業務運營。

模型訓練工具鏈

●投毒的訓練框架:攻擊者可能篡改模型訓練所使用的框架或庫,例如 TensorFlow、PyTorch 等,注入惡意代碼或后門,影響模型訓練過程和結果。

●惡意的模型評估工具:攻擊者可能篡改模型評估工具,例如指標計算腳本、可視化工具等,導致模型評估結果失真,掩蓋模型存在的安全問題。

●不安全的模型部署工具:攻擊者可能利用模型部署工具中的漏洞,例如未經身份驗證的 API 接口、不安全的配置文件等,篡改模型參數或邏輯。

模型供應鏈

● 預訓練模型的風險:使用來自不可信來源的預訓練模型,可能存在被篡改的風險,例如模型中可能被植入后門或惡意代碼。

●第三方數據的風險:使用來自不可信來源的第三方數據進行模型訓練,可能存在數據投毒的風險,導致模型學習到錯誤的模式或產生偏差。

●依賴庫的風險:模型訓練和部署過程中使用的各種依賴庫,可能存在安全漏洞,攻擊者可能利用這些漏洞篡改模型或竊取數據。

模型代碼和配置

● 代碼注入:攻擊者可能直接修改模型代碼,注入惡意代碼或后門,改變模型的行為。

●配置錯誤:錯誤的模型配置可能導致安全漏洞,例如過低的訪問權限、未加密的敏感信息等,攻擊者可能利用這些漏洞篡改模型。

●版本控制問題:缺乏有效的版本控制機制,可能導致模型被意外修改或回滾到存在安全問題的版本。

發揮云原生的力量一起應對風險

經過多年的積累,Google 既是一個 AI 專家,又是一個安全專家,在應對類似的風險方面有豐富的經驗。在 Google Cloud 平臺上,有多種云原生的手段來幫助大家應對上面提到的大模型投毒的威脅。

要保護模型安全,需要多管齊下:加強基礎設施安全,例如做好訪問控制和入侵檢測;使用可信的工具鏈,并對預訓練模型、數據和依賴庫進行安全審查;同時,還要保護好模型代碼和配置,并進行持續的監控和檢測。

Ray on Vertex AI 提供了一個強大的平臺,可以幫助您更好地進行 LLMOps,在提高模型訓練的效率和有效性的同時,保護模型代碼和配置:

安全的環境

Vertex AI 提供了安全可靠的運行環境,并與 Google Cloud 的安全工具集成,例如 IAM 和 VPC Service Controls,可以有效地控制訪問權限和保護敏感數據。

可復現的流程

Ray 和 Vertex AI 的結合可以幫助您構建可復現的模型訓練和部署流程,通過版本控制和跟蹤實驗參數,確保模型代碼和配置的一致性。

持續監控和集成

您可以利用 Vertex AI 的監控工具和 Ray 的可擴展性,對模型進行持續監控和性能分析,及時發現異常情況并進行調整。

通過 Ray on Vertex AI,結合 Google Cloud 的權限管理、網絡隔離、威脅監控等手段,可以將模型代碼和配置納入到一個安全、可控、可復現的環境中,從而更好地保護模型的安全性和完整性。

Jupyter Notebook、Kubeflow 和 Ray 之類的大模型訓練工具也是需要保護的重點。需要從漏洞評估、用戶訪問控制、加密和網絡隔離等多個方面入手,確保訓練開發和測試工具的安全可靠。

漏洞評估

●使用 Artifact Analysis 掃描鏡像中的漏洞,并使用 Binary Authorization 根據掃描結果限制部署。

●對于運行中的工作負載,考慮使用 Advanced Vulnerability Insights 進行更深入的漏洞分析。

用戶訪問控制

● 通過 Cloud Load Balancer 和 Identity-Aware Proxy 對 Cloud Console 環境訪問進行代理、Kubeflow Central Dashboard 和 Ray dashboard UI 進行用戶身份驗證和授權。

加密

●使用 CMEK 對啟動磁盤和永久磁盤進行靜態加密。

●使用 HTTPS Load Balancing 對前端通信進行傳輸加密。

●可選: 支持 Ray TLS,但會影響性能。

網絡隔離

●根據 Jupyter Notebook、Kubeflow 和 Ray 的要求配置網絡策略和 Cloud Firewall 規則。

●Kubeflow 集成了 Istio 來控制集群內流量和用戶交互,還可以使用 Cloud Service Mesh 補充 AI/ML 運營環境的網絡安全。

Vertex AI Colab Enterprise 將 Colab 的易用性與 Google Cloud 的安全性和強大功能相結合,為數據科學家提供了一個理想的平臺,在安全、可擴展的環境中運行 Jupyter Notebook,同時輕松訪問 Google Cloud 的各種資源。

保障大模型訓練安全,需審查預訓練模型、第三方數據和依賴庫。選擇 Google Cloud 提供的預訓練模型,并使用 Artifact Analysis 等工具進行漏洞掃描和依賴分析,確保模型來源可靠且安全。

在管理依賴庫的安全風險方面,Google Cloud Assured OSS 可以發揮重要作用。它提供了一系列經過 Google 安全審查和維護的開源軟件包,例如 TensorFlow、Pandas 和 Scikit-learn 等常用的大模型訓練庫。

●可信來源:Assured OSS 的軟件包來自 Google 管理的安全可靠的 Artifact Registry,確保來源可信。

●漏洞修復:Google 會積極掃描和修復 Assured OSS 軟件包中的漏洞,并及時提供安全更新。

●軟件物料清單 (SBOM):Assured OSS 提供了標準格式的 SBOM,幫助您了解軟件包的組成成分和依賴關系,方便進行安全評估。

目前,業內大模型訓練使用最多的基礎設施平臺是 Kubernetes。Google Cloud 托管的 Kubernetes 平臺 GKE,提供高度安全、可擴展且易于管理的 Kubernetes 環境,讓開發者專注于模型開發和部署,無需擔心底層基礎設施的運維。下面是一些面向大模型訓練風險的 GKE 安全加固建議。

基礎的云原生安全加固和管控在 Google Cloud 上可以非常方便地使用,可以利用其提供的 Identity and Access Management (IAM) 服務精細化地控制對模型和數據的訪問權限,并使用 Security Command Center 進行入侵檢測和安全監控,及時發現并應對潛在威脅。此外,Google Cloud 還提供了一系列安全加固工具和服務,例如虛擬機安全、網絡安全、數據加密等,幫助您構建更加安全的生成式 AI 基礎設施。

生成式 AI 的安全及合規治理

不容忽視

生成式 AI 技術日新月異,其安全風險也隨之不斷演變。長期的生成式 AI 安全治理能夠幫助我們持續應對新的威脅,確保 AI 系統始終安全可靠,并適應不斷變化的法律法規和社會倫理要求,最終促進生成式 AI 技術的健康發展和應用。Google Cloud SAIF (Security AI Framework) 是一個旨在保障 AI 系統安全的概念框架。它借鑒了軟件開發中的安全最佳實踐,并結合了 Google 對 AI 系統 specific 的安全趨勢和風險的理解。

SAIF 的主要內容可以概括為以下四個方面:

安全開發 (Secure Development)

威脅建模:在 AI 系統的開發初期就進行威脅建模,識別潛在的安全風險。

安全編碼:采用安全的編碼實踐,防止代碼漏洞和安全缺陷。

供應鏈安全:確保 AI 系統的供應鏈安全,例如使用可信的第三方庫和數據。

安全部署 (Secure Deployment)

訪問控制:對 AI 系統進行訪問控制,防止未經授權的訪問和修改。

安全配置:對 AI 系統進行安全配置,例如配置防火墻規則和加密通信。

漏洞掃描:對 AI 系統進行漏洞掃描,及時發現和修復安全漏洞。

安全執行 (Secure Execution)

輸入驗證:對 AI 系統的輸入進行驗證,防止惡意輸入和攻擊。

異常檢測:對 AI 系統的運行狀態進行監控,及時發現異常行為。

模型保護:保護 AI 模型不被竊取或篡改。

安全監控 (Secure Monitoring)

日志記錄:記錄 AI 系統的運行日志,方便安全審計和事件調查。

安全評估:定期對 AI 系統進行安全評估,識別新的安全風險。

事件響應:建立事件響應機制,及時應對安全事件。

SAIF 的目標是幫助組織將安全措施融入到 AI 系統的整個生命周期中,確保 AI 系統的安全性和可靠性。它強調了以下幾個關鍵原則:

●默認安全:AI 系統應該默認安全,而不是事后補救。

●縱深防御:采用多層次的安全措施,防止單點故障。

●持續監控:持續監控 AI 系統的運行狀態,及時發現和應對安全威脅。

●持續改進:不斷改進 AI 系統的安全措施,以適應不斷變化的威脅環境。

行動從今天開始

我們深入探討了大模型安全的重要性、面臨的風險以及 Google Cloud 提供的安全工具和服務,涵蓋了基礎設施安全、模型安全、數據安全和供應鏈安全等方面。未來,就像我們一起努力保護 "小哪吒" 一樣,Google Cloud 會和大家一起,利用強大的安全工具和豐富的經驗,把大模型訓練的每個環節都保護好,讓 AI 技術安全可靠地為我們服務!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Google
    +關注

    關注

    5

    文章

    1765

    瀏覽量

    57530
  • AI
    AI
    +關注

    關注

    87

    文章

    30894

    瀏覽量

    269085
  • 大模型
    +關注

    關注

    2

    文章

    2450

    瀏覽量

    2706

原文標題:"與 Google Cloud 一起捍衛大模型安全" 之 "保護你的大模型訓練"

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Google Cloud發布兩款針對企業客戶的全新解決方案

    Google Cloud 近期發布兩款專為企業客戶設計的全新解決方案——Google Agentspace與NotebookLM Plus,目的是通過 Gemini 先進的推理能力、Googl
    的頭像 發表于 12-27 16:31 ?112次閱讀

    OPPO與Google Cloud攜手開創AI手機新未來

    OPPO 與 Google Cloud 在 AI 技術上深入合作,在旗下的海外手機上實現 AI 功能,這些 AI 功能為 OPPO 手機帶來了更好的使用體驗,為用戶的日常生活和使用提供了便利和樂
    的頭像 發表于 12-06 14:13 ?279次閱讀

    電梯黑匣子:守護安全的智慧守護

    在現代都市生活中,電梯已成為人們日常生活中不可或缺的交通工具。然而,隨著電梯使用頻率的增加,電梯安全問題也日益凸顯。為了保障電梯運行的安全性和可靠性,電梯黑匣子應運而生,成為電梯安全運行的智慧
    的頭像 發表于 11-16 16:28 ?180次閱讀

    Google Cloud AI助力衛安智能推出機器人解決方案

    Google Cloud 基于神經網絡的語音識別技術讓衛安智能得以滿足小語種地區用戶對機器人交互的需求,為其節省約60%與第三方溝通協作的人力成本,并運用高性能的計算資源將產品的開發周期縮短了一半。
    的頭像 發表于 10-16 11:11 ?561次閱讀

    NetApp與Google Cloud深化合作,強化分布式云存儲

    智能數據基礎設施領導者NetApp?宣布,其與Google Cloud的戰略合作再升級。此次合作中,NetApp將統一數據存儲和智能服務融入Google Distributed Cloud
    的頭像 發表于 10-11 17:21 ?497次閱讀

    梯云物聯 電梯應急救援終端:守護安全的智慧守護者!

    在高層建筑日益增多的今天,電梯作為垂直交通的重要工具,其安全性與可靠性直接關系到人們的生命財產安全。深圳梯云物聯科技有限公司電梯應急救援終端,作為電梯安全管理系統中的關鍵一環,正以其智能化、高效化的特點,成為
    的頭像 發表于 08-13 10:55 ?402次閱讀

    Google Gemma 2模型的部署和Fine-Tune演示

    Google 近期發布了最新開放模型 Gemma 2,目前與同等規模的開放模型相比,取得了明顯的優勢,同時在安全可控性上得到了顯著的增強。
    的頭像 發表于 08-09 17:04 ?537次閱讀
    <b class='flag-5'>Google</b> Gemma 2<b class='flag-5'>模型</b>的部署和Fine-Tune演示

    Meta Llama 3.1系列模型可在Google Cloud上使用

    Google Cloud 一如既往地踐行打造開放、靈活的 AI 生態系統的承諾,幫助您構建最能滿足您需求的解決方案。
    的頭像 發表于 08-02 15:42 ?397次閱讀

    螞蟻集團發布隱語Cloud模型密算平臺

    在2024年世界人工智能大會的聚光燈下,螞蟻集團憑借其深厚的技術底蘊與創新精神,正式發布了革命性的“隱語Cloud”大模型密算平臺。這一平臺的問世,標志著在人工智能領域,數據安全與隱私保護邁入了一個全新的發展階段。
    的頭像 發表于 07-09 14:37 ?648次閱讀

    驍銳單邊安全光柵,守護安全新勢力

    驍銳科技的單邊安全光柵以其先進的技術和卓越的性能,成為了守護安全的新勢力。它為企業提供了可靠的安全保障,助力企業實現可持續發展。讓我們共同期待單邊
    的頭像 發表于 06-20 09:45 ?291次閱讀
    驍銳單邊<b class='flag-5'>安全</b>光柵,<b class='flag-5'>守護</b><b class='flag-5'>安全</b>新勢力

    Flutter首次亮相Google Cloud Next大會

    Flutter 團隊在近期首次參加了 Google Cloud Next 大會,這意味著 Flutter 在開發社區中的影響力正在日益增長。
    的頭像 發表于 05-09 10:15 ?488次閱讀

    Google Cloud推出基于Arm Neoverse V2定制Google Axion處理器

    Arm Neoverse 平臺已成為云服務提供商優化其從芯片到軟件全棧的心儀之選。近日,Google Cloud 推出了基于 Arm Neoverse V2 打造的定制 Google Axion 處理器,面向通用計算和人工智能
    的頭像 發表于 04-16 14:30 ?654次閱讀

    GPS信號屏蔽器:守護隱私與安全的隱形守護

    深圳特信電子|GPS信號屏蔽器:守護隱私與安全的隱形守護
    的頭像 發表于 04-12 09:03 ?734次閱讀

    Cognizant與Google Cloud深化合作,提升軟件交付效率

    近日,知名IT服務提供商Cognizant與Google Cloud宣布將進一步擴大合作伙伴關系,共同致力于增強軟件交付生命周期,并顯著提升開發人員的工作效率。
    的頭像 發表于 03-26 10:01 ?353次閱讀

    邊坡位移監測設備:守護工程安全的前沿科技

    邊坡位移監測設備:守護工程安全的前沿科技
    的頭像 發表于 02-18 15:04 ?423次閱讀
    主站蜘蛛池模板: 国产亚洲欧美一区| 三级毛片网站| 在线视频观看一区| 亚洲 自拍 欧美 综合| 久久综合九色婷婷97| 台湾一级毛片永久免费| 久久久久久久国产| 国产一区中文字幕| 欧美xxxxx喷潮| 天天拍夜夜爽| 性夜影院爽黄a免费视频| 色骚网| 午夜无遮挡怕怕怕免费视频| 91视频观看| 日韩欧美视频一区| 小屁孩cao大人免费网站| 亚洲精品美女久久久aaa| 日韩一级免费毛片| 天天搞夜夜操| 国产叼嘿视频免费网站| 国内真实实拍伦视频在线观看| 在线高清视频大全| 一区二区亚洲视频| 免费番茄社区性色大片| 1000部啪啪勿入十八免费| 91大神在线精品视频一区| 日本三级高清| 牛牛碰在线视频| 亚洲综合成人在线| 99久久综合给久久精品| 亚洲入口| 精品一区 二区三区免费毛片| 国产福利小视频在线观看| 四虎影院免费网址| 天天干天天操天天爱| 91视频污污版| 97色在线| 短篇禁伦小说| 在线看欧美成人中文字幕视频| 亚洲免费成人| 国内自拍露脸普通话对白在线|