7月26日訊,近期微軟遭遇的大規模藍屏事件,不僅震撼了科技界,也促使社會各界對技術穩定性與安全性進行了深刻反思。這一事件警示我們,在即將到來的AI時代,若類似的技術故障重演,其潛在影響與損失或將更為嚴峻。
在此背景下,中國人工智能產業發展聯盟(AIIA)安全治理委員會于近日舉辦的成果發布會上,AIIA秘書長、中國信通院院長余曉暉強調,面對人工智能安全治理的緊迫任務,需集行業之力,共同構建和完善人工智能安全風險識別體系,確保風險識別的敏捷性與精準度,以便及時發現并應對潛在威脅。同時,他呼吁加強人工智能安全評測技術的研究與應用,以技術手段解決技術難題。
AIIA安全治理委員會已深入探索人工智能治理框架、風險管理、內生安全及安全應用等多個維度,力求在理論和技術層面為AI安全保駕護航。會上,正式啟動了“人工智能安全守護計劃”,旨在通過AI Guard品牌,建立AI系統情報共享及AIGC真實性與可信賴性互認機制,并推動人工智能相關保險產品的開發,全方位提升AI技術服務提供方與使用方的安全防護能力。
此外,中國信通院人工智能所黑一鳴博士展示了自主研發的大模型安全加固解決方案。該方案創新性地采用模型微調與外掛安全知識庫等策略,在保持大模型原有性能與效率的同時,顯著增強了其對抗各類誘導攻擊的能力,為AI安全加固提供了新思路。
值得注意的是,人工智能的跨界融合特性日益顯著,這既是其發展的動力,也對法律與規范提出了更高要求。中國法學會網絡與信息法學研究會副秘書長劉金瑞指出,法學界在應對AI挑戰時,需深入了解技術特性,以確保所制定的規范和規制措施既符合邏輯又具實操性。
北京市金杜律師事務所合伙人寧宣鳳律師則透露,國家層面正逐步推進針對人工智能的小切口立法,涵蓋深度合成、算法、AIGC等多個領域,并探索科技倫理審查等制度建設。她進一步透露,專門的“人工智能法”也正在緊鑼密鼓的制定之中,預示著我國在AI治理領域的法制化進程正加速推進。
-
AI
+關注
關注
87文章
31097瀏覽量
269429 -
人工智能
+關注
關注
1792文章
47409瀏覽量
238923
發布評論請先 登錄
相關推薦
評論