在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型的陰面:無法忽視的安全隱憂

科技云報到 ? 來源:jf_60444065 ? 作者:jf_60444065 ? 2023-09-22 19:02 ? 次閱讀

科技云報道原創

AI大模型的身上,竟也出現了“to be or not to be”問題。

爭議是伴隨著大模型的能力驚艷四座而來的,爭議的核心問題在于安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個是大模型本身帶來的隱私泄漏、數據安全等問題。

埃隆·馬斯克應該可以說是對大模型發起質疑的企業家之一。早在ChatGPT誕生之初,馬斯克等一千多名業界、學界人士聯署發表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,暫停至少6個月。

時至今日,馬斯克依舊對外表達的態度是,人工智能是一把雙刃劍,對人工智能方面的監管是強烈共識,可能會出現某種形式的監管機構。

圍繞著AI大模型的安全,不少國內專家學者以及企業家們也有了更多的思考和發聲。9月初,中國科學院院士何積豐曾發言談到,目前大模型面臨的安全問題涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

另一方面,隨著AI大模型在行業中的廣泛應用,對合規和數據保護的需求急劇上升。在“云、大、物、移”四大網絡安全場景之后,大模型正逐漸成為新的市場增長點。

不少企業開始圍繞大模型安全視角推出產品,掀起了一陣AI安全、數據安全等新興安全領域的火熱之風。

大模型的“陰面” 安全問題不容忽視

發展至今,大模型陰陽兩面,涇渭分明。不少人早已經感受到了大模型的“陽面”,應該不少人早已經開始嘗試,將其作為提升工作效率的工具。

但大模型的“陰面”,關于安全的討論不絕于耳。最典型的安全案例,三星機密數據外泄事件仍然記憶猶新。

上文中也曾提到,中國科學院院士何積豐發言指出,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

隱私保護問題的是,在未經允許的情況下,大模型是否會收集、使用和泄露個人信息

價值觀對齊問題的是,使得大模型的價值觀與人類的價值觀相對齊。使得大模型按照設計者的意愿行事,而不作出超出意圖之外的舉動。

在價值觀對齊方面,由于人類社會的價值觀是多元化的,且有用的人工智能與無害的人工智能往往存在沖突,這導致了大模型價值觀對齊存在很大的難度。

具體來看,大模型的包含多個關鍵要素,數據、算法模型以及應用層等,每一個要素中,都有不少安全問題需要面對。

在數據層,安全問題主要集中在數據泄露、數據污染等。三星的案例,其實就在于數據層面存在一定的泄漏風險。

數據可以說是構成大模型的骨骼,為其提供了基礎支撐。

機器學習深度學習的領域中,數據的獲取、加工及利用的方式決定了模型的性能和準確性。但是,數據層面的安全隱患卻是不可避免的。

其中最常見的問題包括數據的非法泄漏,這可能導致敏感信息暴露;數據被惡意篡改,這可能導致訓練出的模型有誤導性;還有非法獲取或使用未經授權的數據,這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對模型的訓練和應用帶來不良影響,使其失去原有的效果甚至產生誤導。

與數據安全同等重要的,是算法模型的安全。

在現代社會,大模型的訓練往往需要消耗巨大的計算力,因此很多資源都集中在特定的數據中心。

這就為潛在的攻擊者提供了機會,他們可能會針對這些數據中心進行攻擊,試圖更改模型的參數或者整體結構。一旦成功,模型的輸出可能會完全不可控,產生不可預知的結果。

另外,還有一種更加隱蔽的攻擊方式——對抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產生錯誤的輸出,這在一些關鍵領域如醫療診斷、金融決策等方面,可能會帶來嚴重后果。

到應用層,安全隱患也十分嚴重。比如說生成內容的有害性和準確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進行數據推斷的過程中,用戶的私人數據不會被非法獲取或泄露?這些都是在模型部署時必須要考慮的問題。

此前,就有人嘗試向大模型發問,“野生娃娃魚的做法”,大模型給出的回答是“紅燒”,并且寫出了具體的步驟。這就很容易“誤導”提問者。實際上,野生娃娃魚屬于國家二級保護動物,不能捕捉、捕殺甚至食用。

為了應對這些隱患,可能需要一系列的安全措施,包括但不限于數據加密、模型的版本控制和運行環境的隔離等。

AI大模型安全問題 的解決之道

大模型問題出現后,外界對于監管的呼聲是最為熱烈的。

在新技術飛速發展的當下,政府與各類監管機構成為確保AI大模型安全運行的重要力量。他們可以通過制定和實施嚴格的數據隱私法規,為大模型的安全使用提供法律保障。

今年4月,國家互聯網信息辦公室發布了關于《生成式人工智能服務管理辦法(征求意見稿)》,旨在促進生成式人工智能健康發展和規范應用。其中的第七條涉及到生成式人工智能服務提供者數據來源的合法性問題。

這也意味著國家已經開始出手應對大模型火熱帶來的一些列的安全問題。

7月,網信中國官微消息稱,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局公布了《生成式人工智能服務管理暫行辦法》。

這其中就明確生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,使用具有合法來源的數據和基礎模型;涉及知識產權的,不得侵害他人依法享有的知識產權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形;采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。

此外,明確了數據標注的相關要求。

監管之下,國內的大模型也迎來了合理合法合規的發展期。最新的消息是,目前國內已經有11家大模型陸續通過《生成式人工智能服務管理暫行辦法》備案,并逐步面向大眾開放。

監管之下,技術本身也可以在大模型安全上有所行動。AI守護AI,技術反哺技術。

“利器攻利器”。AI技術本身不僅是可能的威脅,更是解決問題的關鍵。

對抗性訓練就是其中的佳例,它可以讓模型在面對惡意輸入時仍然保持其穩定性,從而增強模型對各類對抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術對模型的輸出進行實時監控,及時發現并糾正模型的異常行為。

另外,目前也有不少安全企業提出通過可信計算、差分隱私、聯邦學習等技術手段確保數據隱私安全。

此前,清華大學人工智能研究院副院長,北京智源人工智能研究院和瑞萊智慧首席科學家朱軍在接受騰訊科技采訪時就曾提到過,為了解決大模型的安全問題,從技術方向來看,我們可以以“AI識別AI”的形式來應對。

朱軍表示,與進攻相比,防守其實更為困難。現在,我們正積極尋求多種手段以增強模型的抵御能力,并在模型的應用和布署階段實施多重保護策略。

比如在人臉鑒定系統中,我們設置人臉識別安全屏障,能在樣本進入決策階段前篩選并剔除攜帶潛在威脅或經過對抗性修改的樣本,確保系統安全穩定。這一技術手段已經在銀行等行業中落地使用。

為了防范未然,開發者和企業在產品層面也必須下足功夫。嚴格的安全標準不僅僅是一紙文件,更應該深入到每一個開發與部署的細節中。

對于開發者和企業而言,對數據的處理要嚴格遵循隱私保護原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的開發與部署過程也需要經過嚴格的審查,確保其不會對用戶和社會造成傷害。

大模型安全問題掀起行業新風向

目前,不少企業也關注到了大模型安全的問題,甚至推出了不少相關的產品和解決方案。這也掀起了一陣“安全潮”,風口也逐漸吹向了數據要素、網絡安全和隱私計算等相關產業上。

最近一段時間,可以明顯地看到網絡安全行業正在迎頭趕上這一挑戰,大模型和數據安全新品不斷亮相,旨在滿足市場對于新興技術的安全需求。

今年的網絡安全博覽會成為了各大廠商展示大模型安全解決方案的初舞臺。比如,奇安信推出了名為Q-GPT的安全機器人,還發布了針對大模型數據泄露隱患的“大模型衛士”; 綠盟科技在發布其安全大模型的同時,也推出了基于隱私計算的“數據保險箱”。

除此之外,安恒信息、深信服、三六零集團、螞蟻等公司也紛紛推出各自的大模型產品,為企業提供了多樣的選擇。這些新品的出現無疑證明了行業對于大模型安全的重視。

據中國網絡安全產業聯盟的數據,2022年我國網絡安全產業規模達到了近633億元,預計在未來三年內,增速將保持在10%以上。隨著數據要素市場的逐步建立,大模型等前沿技術發揮出的應用價值越來越大,新的安全需求也隨之涌現。

隱私計算賽道同樣如此。

在2023年世界人工智能大會上,就有不少專家學者提到大模型時代隱私計算迎來全新機遇?,F階段,隱私計算中包括可信執行環境TEE、多方安全計算MPC等都有與大模型結合的探索,比如在云端部署TEE,用戶在推理時將輸入數據加密傳輸至云端,在其內部解密然后進行推理。

復旦大學教授、上海市數據科學重點實驗室主任肖仰華表示,傳統的隱私計算如差分隱私、聯邦學習多是算法層開展工作。

不過算法工作前提是保護對象是明確的,協作機制清晰。大模型時代是海量參數化的模型,不透明、無邊界、不可解釋,對于以前的基于可解釋、清晰、可控的技術路線的隱私計算方法提供了全新挑戰。

華經產業研究院的報告顯示,隨著中國互聯網技術的發展,中國隱私計算市場規模逐年增長,預計2025年中國隱私計算市場規模達192.2億元。

大模型已經成為繼“云、大、物、移”之后的新戰場,被視為新的市場增量。

無論是為自己的客戶提供基于大模型的服務,提高交付效率和競爭力,還是通過大模型應用提高企業自身生產效率,大模型正迅速進入企業IT中,與此對應的大模型安全也成為攻防焦點。

隨著各大公司在大模型安全方面的持續投入和創新,預期這一市場將帶動整個網絡安全行業邁向新的高度。

結語

AI大模型的發展不僅帶來了巨大的潛力,也伴隨著重大的安全挑戰。為了充分發揮AI的潛力并確保安全,政府、企業和網絡安全公司需要共同努力,采取綜合性的措施來解決這些問題。只有這樣,我們才能在AI時代中邁出堅實的步伐。

【關于科技云報道】

專注于原創的企業級內容行家——科技云報道。成立于2015年,是前沿企業級IT領域Top10媒體。獲工信部權威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創報道云計算、大數據、人工智能、區塊鏈等領域。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30897

    瀏覽量

    269111
  • 人工智能
    +關注

    關注

    1791

    文章

    47279

    瀏覽量

    238513
  • 大模型
    +關注

    關注

    2

    文章

    2451

    瀏覽量

    2714
收藏 人收藏

    評論

    相關推薦

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    的功能和性能。因此,選擇具有良好可擴展性的模型可以適應未來業務的發展需求。在客服領域,處理客戶數據時可能涉及敏感信息。因此,在選擇模型時需要考慮其安全措施和隱私保護能力。確保數據傳輸和存儲過程中的
    發表于 12-17 16:53

    ADS 2011.10版本無法加載lmk04828 IBIS模型,為什么?

    ADS 2011.10版本無法加載lmk04828 IBIS模型
    發表于 11-13 07:06

    深信服發布安全GPT4.0數據安全模型

    近日,深信服在數據安全領域邁出了重要一步,正式發布了安全GPT4.0數據安全模型。這一創新的大模型技術,旨在為用戶提供更高效、精準的數據
    的頭像 發表于 10-29 11:12 ?234次閱讀

    DAC8568 IBIS模型轉換成spice模型無法顯示所有引腳是什么原因導致的?怎么解決?

    你好,下載的DAC8568 IBIS模型,在cadence中生成spice模型無法顯示所有引腳,只有一個INPUT引腳,沒有其他引腳,導致無法進行電路繪制和仿真,請問是什么原因,應
    發表于 09-09 06:14

    將amc1200 SPICE模型轉成PSPICE模型無法在ORCAD16.5中使用,為什么?

    我按TI提供之文件 [ 在PSpice中使用Spice模型 ]將amc1200之SPICE模型轉成PSPICE模型后卻無法在ORCAD16.5中使用,不知是否是SPICE轉換PSPI
    發表于 08-29 07:25

    TiNa無法導入tlp520的Pspice模型的原因?怎么解決?

    TiNa無法導入tlp520的Pspice模型
    發表于 08-15 08:26

    京東云智能編程助手與安全模型雙雙獲獎!

    “AI技術創新應用”,京東云與深圳市信息安全管理中心聯合申報的“安全模型保障大模型應用落地實踐”入選“AI最佳落地實踐”。 開發者在日常工作中面臨著諸多繁重的開發工作,如撰寫業務或功
    的頭像 發表于 07-17 16:32 ?321次閱讀
    京東云智能編程助手與<b class='flag-5'>安全</b>大<b class='flag-5'>模型</b>雙雙獲獎!

    人工智能大模型在工業網絡安全領域的應用

    隨著人工智能技術的飛速發展,人工智能大模型作為一種具有強大數據處理能力和復雜模式識別能力的深度學習模型,已經在多個領域展現了其獨特的優勢和廣闊的應用前景。在工業網絡安全領域,人工智能大模型
    的頭像 發表于 07-10 14:07 ?755次閱讀

    16家科技巨頭保證AI模型安全開發

    據路透社報道,微軟、谷歌以及OpenAI等16家全球科技巨頭在5月21至22日舉行的“人工智能(AI)首爾峰會”上,公開表態承諾進行AI模型安全開發,并在無法有效控制最極端風險時,對其尖端系統進行關閉。
    的頭像 發表于 05-22 11:55 ?704次閱讀

    微軟、谷歌等科技巨頭承諾安全開發AI模型

    近日,微軟、谷歌、OpenAI等16家科技巨頭在“人工智能(AI)首爾峰會”上達成共識,承諾在AI模型的開發過程中注重安全性,并在無法控制最極端風險時關閉其尖端系統。
    的頭像 發表于 05-22 11:25 ?507次閱讀

    英國AI安全研究所推出AI模型安全評估平臺

    據報道,英國人工智能安全研究院近日發布了名為“Inspect”的AI模型安全評估平臺,此平臺采用開源技術且對全球AI工程師免費開放,旨在提升模型性能與
    的頭像 發表于 05-13 15:20 ?417次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    能力,它缺乏真正的“思考”過程。對于任何輸入,大語言模型都會產生輸出,但這僅僅是基于計算和預測下一個Token出現的概率。模型并不清楚自己的優勢或劣勢,也無法主動進行反思和糾正錯誤。提示工程
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    無法修改,因此難以靈活應用于下游文本的挖掘中。 詞嵌入表示:將每個詞映射為一個低維稠密的實值向量。不同的是,基于預訓練的詞嵌入表示先在語料庫中利用某種語言模型進行預訓練,然后將其應用到下游任務中,詞
    發表于 05-05 12:17

    maixcam如何無腦運行運行別人的模型(以安全模型為例)

    maixcam如何無腦運行運行別人的模型(以安全模型為例) 本文章主要講如何部署上傳的模型文件,以及如果你要把你模型按照該流程應該怎么修
    發表于 04-25 14:51

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE AI文檔說在調用create函數前,要啟用
    發表于 03-15 08:10
    主站蜘蛛池模板: 91大神大战高跟丝袜美女| ww7788色淫网站女女免费| 亚洲狼色专区| 特级无码毛片免费视频尤物| 国产午夜大片| 国产午夜精品久久久久九九| 日本不卡免费高清一级视频| 青草网址| 天天色综合3| 午夜.dj高清在线观看免费8| 日本色黄| 天天爽天天色| 男女视频免费| 久久99精品久久久久久牛牛影视| 色屁屁www免费看视频影院| 日本在线一区| 久久综合影视| 国产香蕉在线精彩视频| 一本到卡二卡三卡视频| 国产精品网址你懂的| 欧美三级网站| 日本特黄特色免费大片| 天堂在线bt| 成人免费看片视频色多多| bt天堂新版中文在线地址| 天堂网色| 天天干在线播放| 国产三级观看久久| 国产亚洲午夜精品a一区二区| 俄罗斯一级特黄黄大片| 天堂在线视频观看| 午夜影视体验区| 精品国产污污免费网站入口| 好爽毛片一区二区三区四| 成人欧美另类人妖| 日韩欧美不卡片| 奇米四色7777| 婷婷综合久久狠狠色99h| 亚洲国产精品热久久2022| 1区2区| 成人v|