根據MIT Technology Review2023年2月27日報道,由人工智能研究非營利組織Partnership on AI (PAI)發起,OpenAI、TikTok、Adobe、BBC等在內的10家公司簽署了一套新的AI指南,就如何負責任地構建和分享人工智能生成內容(AI Generated Content,簡稱AIGC)給出明確指導建議。
一、簡介
PAI根據過去4年與工業界、民間社會、媒體和學術屆的合作,廣泛征集全球100多個利益相關者的反饋,制定本指南。該指南最重要的一點是,這些簽署公司達成了一項協議,他們將著手研究一個重要問題:即告訴用戶他們正在與人工智能生成的東西互動。
該指南呼吁技術的建設者如OpenAI,和合成內容的創造者和分銷商如BBC和TikTok,以更透明的態度對待技術能做什么和不能做什么,以指導合成媒體負責任地開發和部署人工智能生成內容。目標受眾為合成媒體技術和基礎設施建設者、合成媒體創建者和合成媒體傳播者。
二、指南主要內容
1. 合成媒體的技術和基礎設施建設者包括B2B和B2C工具制造商、開源開發者、學者和合成媒體初創公司等,應采取措施為合成媒體的傳播者提供披露機制;在開發代碼和數據集、培訓模型以及制作合成媒體時,盡可能應用簡介披露元素;促進進一步研究,制定未來數據共享計劃,平衡透明度和隱私保護等因素等。
2. 合成媒體創造者規模不一,既可是B2B內容生產者等大生產者,又可包括藝術家、業余愛好者和作家等小生產者,應就內容來源、使用規范和潛在風險對內容消費者保持透明;披露和公開其創造的合成媒體中的合成因素等。
3. 合成媒體傳播者包括廣播公司和社交媒體平臺,應在檢測到合成內容后,進行直接或間接披露;當認識到在不知情的情況下傳播有害的合成內容后,應立即作出調整;避免傳播來源不明的合成媒體內容;尊重創建者的知情權等。
三、各國的人工智能監管實踐
生成式人工智能目前仍處于野蠻生長時期,面對生成式人工智能可能帶來的潛在危害,各國家和地區陸續出臺相關的管控和監管措施,例如歐盟試圖將生成式人工智能納入其即將出臺的《人工智能法案》其中可能包括對深度偽造等技術的披露,以及要求公司滿足某些透明度要求。
1. 歐盟:據預計,備受關注的歐盟《人工智能法案》將于2023年3月底在歐洲議會進行投票。隨著大型聊天機器人軟件ChatGPT的橫空出世,大型科技公司即將在AI領域展開新一輪競賽。與此同時,各國監管機構已經注意到了ChatGPT引發的現象級效應,也在關注這一技術的潛在風險。該法案將解決圍繞ChatGPT和AI技術風險的擔憂。
2. 中國:2022年1月28日,國家網信辦最新公布了《互聯網信息服務深度合成管理規定(征求意見稿)》,對作為元宇宙基石的深度合成技術做出了一系列較為明確的規定和指引,明確深度合成技術定義,劃定深度合成服務提供者和使用者的責任和義務。
3. 美國:2023年1月26日,美國國家標準和技術研究院(NIST)發布NIST AI 100-1《AI風險管理框架1.0》(Artificial Intelligence Risk Management Framework,AI RMF),其目標在于為設計、開發、部署、應用AI系統的組織提供參考,以使之能夠在控制多樣性風險的同時,促進可信賴、負責任AI系統的開發與應用。同時,NIST出版了與之配套的AI風險管理框架行動手冊、講解視頻等,協助理解和使用AI RMF。AI RMF具有自愿性、基于權益保護原則、普遍適用性等特征,從而能夠為不同規模、不同領域乃至全社會的各相關組織提供參考。
人工智能技術具有廣泛滲透性和顛覆性,帶來的科技倫理與法律問題更加復雜多元,可能引發潛在倫理和法律風險,需要引起高度重視。人工智能的健康發展,必須回答人工智能到底該由誰掌控、人工智能發展的基本準則是什么、人工智能發展的禁區在哪里等問題,必須通過建立理性的倫理規則和法律規范為人工智能發展的風險防范設置“控制閥”,不斷強調“人本視角”,確保其體現在AI開發的各個階段中,讓AI技術適用性更強、更具協作性、負面影響更小,讓越來越多的人類受益于未來的技術進步。
審核編輯 :李倩
-
人工智能
+關注
關注
1793文章
47532瀏覽量
239292 -
OpenAI
+關注
關注
9文章
1107瀏覽量
6603 -
元宇宙
+關注
關注
13文章
1397瀏覽量
11505 -
AIGC
+關注
關注
1文章
366瀏覽量
1573
原文標題:OpenAI、TikTok等公司聯合簽署AI指南,構建負責任的AIGC
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論