當我們在媒體報道和會議報告看到“人工智能倫理”時,大概率也會看到“人工智能治理”這個詞。有趣的是,這些報道關于人工智能倫理的討論非常多,卻很少提及和厘清“人工智能治理”的內涵和范疇。
關于人工智能治理有三個簡單卻重要的問題尚無答案:第一,“人工智能治理”的定義是什么。雖然我們知道“治理”這個詞的含義,但人工智能治理到底要做什么,怎么做并不清楚。
第二,組織中(政府組織或者商業組織)哪些主管或職能部門負責人應該直接承擔人工智能治理的責任。
第三,如何考核和追蹤人工智能治理情況。這三個問題恰恰是一個組織在人工智能治理實踐中面臨的最基本的問題,而其具體內容的缺失導致人工智能治理落地實踐上面臨著很大的挑戰。
目前,這三個問題沒有得到充分討論,究其原因,大概有以下三點:第一,眾多機構和國際會議更多停留在人工智能議題探討階段,較少能夠真正出臺相關的治理報告和倡議。
第二,行業參與者經常將人工智能治理與人工智能倫理這兩個概念混用,誤以為倫理道德標準的制定即為治理。
第三,即使是已經出臺的人工智能的相關治理報告和倡議,亦缺乏進一步更為明確的治理路徑與方案,難以推動具有共識性和約束力的全球治理機制的產生。
因此,盡管許多企業都編纂了人工智能倫理準則,但它們如何(或是否能)轉化為日常的工作準則并不清楚。根據德勤的調查,32%的受訪者將人工智能倫理列為人工智能的三大風險之一,但大多數公司并沒有處理人工智能倫理風險的具體方法。比如,基本上所有的人工智能倫理準則都提及人工智能要公平,不能歧視特定的人群,絕大多數的公司也能認可這一準則。但是在落地實踐上,員工很難理解具體工作中應該如何執行這一準則,這其中有太多的模糊性和主觀性。
事實上,有研究表明,僅僅是熟悉和了解道德準則本身并不會直接改變員工的行為。為了讓人工智能倫理準則能夠確實指導員工的行為,其治理實踐必須要有一整套相對應的制度設計和安排,并且將這套制度深度融入到整個組織的系統結構中。商業領域的公司治理主要通過正式與非正式、內部與外部的機制確保以公司利益和股東利益最大化的目標,比如獨立董事制度,股東投票制度等。類似的,人工智能治理的具體范疇應該是在人工智能倫理的標準下,對管理和執行人工智能倫理規范的制定,以及后續的維護、監管、問責等具體機制的建立和執行。同時,正如人的理性認知是動態變化的,人工智能治理的內容也是一個協調多個利益相關方且持續互動的過程。此外,不同的公司文化、現有的組織架構、數字化成熟度以及風險承受能力同樣也會影響人工智能治理框架。
綜上所述,隨著人工智能技術社會影響力的增大,人工智能治理要落到實處就需要厘清和建立具體的、可執行的制度安排。因此,下一步,人工智能治理實踐將會經歷從人工智能倫理討論到人工智能治理機制落地的加速演化的過程。
責任編輯:YYX
-
人工智能
+關注
關注
1793文章
47566瀏覽量
239412
發布評論請先 登錄
相關推薦
評論