12月18 日,由清華大學人工智能國際治理研究院(I-AIIG)主辦,聯合國開發計劃署(UNDP)作為國際支持機構的清華大學人工智能合作與治理國際論壇在北京召開。論壇采用線上與線下結合的形式,探討人工智能合作與治理的機遇與挑戰。清華大學人工智能國際治理研究院院長薛瀾教授發表題為《人工智能治理:挑戰與展望》的主旨演講,圍繞人工智能的福利與風險、人工智能治理的挑戰、以及人工智能治理的前景三個方面展開闡述。
在會上,薛瀾教授強調了人工智能國際治理的重要性。人工智能技術對整個人類發展有非常長遠的影響,其好處和風險都非常明顯,因此國際合作特別重要。人工智能的發展本身就是一部國際合作的歷史。在中美兩國的人工智能論文發表中,國際合作的比例非常之高。人工智能如果應用到軍事領域,可能對全球有毀滅性的影響,這方面沒有任何一個國家能夠單獨解決。薛教授指出,尤其要注意一些極端組織可能利用人工智能技術,對主權國家產生威脅。
薛瀾教授認為,應對這些挑戰需要在基本共識的基礎上,建立全球性的治理平臺,協調人工智能未來發展面臨的緊迫問題。國際社會要積極吸取在核武器、空間法、以及氣候治理等領域積累的許多經驗和教訓,建立基本的價值共識,尊重各國經濟、社會、政治和文化的差異。除了自然科學研究,國際社會要加強人工智能社會影響及其治理的合作研究,引導人工智能健康發展,造福人類美好未來。
以下是薛瀾教授發言全文:
各位嘉賓,大家好!非常高興今天有這個機會來跟大家討論人工智能治理面臨的挑戰。
首先,我談談人工智能給人類社會帶來的收益和風險。目前,我們經常能看到一些被廣泛應用的簡單機器人,比如在酒店服務的應用,特別是在抗疫中也被廣泛運用。從圖片中我們可以看到,人工智能在圖像識別的能力可以用來對一些癌癥進行判斷。此外,還有一些比較復雜的人工智能運用場景,比如重慶市正在推進一個被稱為“云谷”的項目,實際上是利用人工智能和物聯網實現智慧社區。這是較為復雜的應用。人們還將人工智能運用于科學發現,最近在生命科學領域有一些具體應用,例如AlphaFold在解析蛋白質結構方面的突破性進展,這是更加復雜的運用場景。由此,我們可以看到人工智能的運用不斷演進,從簡單到復雜的一個應用過程。
人工智能給我們帶來諸多社會收益的同時,也會產生一些大家都非常關注的風險。一類是算法歧視的問題。最近的研究發現美國一些醫院在利用人工智能篩選病例,判斷是否收治病人住院。但由于算法的問題,在這個過程中有比較明顯的種族歧視,在同樣病情的情況下,對黑人的病癥判斷得更輕,從而更容易被拒絕住院。二是安全的問題。在自動駕駛領域,如果數據質量不高,自動駕駛系統產生失誤,無法識別前面的障礙物,導致事故。這樣的情況發生后,責任分配的問題也值得研究。三是隱私的問題。比如人臉識別可能引起侵犯個人隱私的問題,也可能帶來歧視的問題,國內最近討論得比較多。四是社會影響。其中一個問題是人工智能替代就業崗位的問題,最新的研究顯示,2020年至2025年有相當一部分的工作將被人工智能相關技術所替代。MIT一位教授去年發表一篇文章,對比分析了人工智能和信息技術創造就業和消除就業的兩個指數,這篇文章發現消除就業的指數其實更高,從長遠看人工智能對就業的影響的確值得我們高度關注。另外一個問題是“信息繭房”的問題,信息推送可以給人們帶來方便,不需要再主動尋找各種各樣的信息,算法根據我們的偏好把我們需要的信息都能推送過來。但這樣潛在的后果是,我們之前相信什么,會接受到更多相關的信息,導致我們越來越相信,這個過程是否會將我們的觀點和社會認知更加極化?這些問題值得進一步關注和考慮。
其次,我談談人工智能治理所需要的基本規則、政策和機制。人工智能治理的目標是保證人工智能發展能夠造福于人類,實現技術向善。第一,人工智能治理還處于不斷發展演變的過程中,是一個還未成熟的領域。人工智能本身就有不同定義,比如我們在編寫人工智能倫理指引時,發現不同機構對人工智能的基本定義不完全一樣。另外,人工智能還具有黑箱特征,其算法機理還有無法解釋的內容,其社會影響或可能產生的風險存在不確定性。第二,人工智能治理包含價值、機制、參與者、對象和效果等要素。價值觀是非常重要的一個要素,應明確發展人工智能技術時應堅持哪些基本價值觀。機制是指通過何種制度體系來實現有效的治理。參與者即指實現人工智能治理需要哪些參與者,可能包括個人、組織和國家。治理的對象可能涉及企業的行為,可能涉及使用者的行為。最后一個要素就是效果,即以何種方式評價治理的效果。第三,人工智能治理存在機制復合體現象。機制復合體的現象是指在全球治理過程中,針對同一類問題,有不同的治理機制并存。這些治理機制之間有重疊,也有觀點和價值的沖突,彼此也沒有上下級關系,此時如何協調不同治理機制是一個很大的挑戰。人工智能治理也呈現出此類現象,需要我們進一步探討。第四,人工智能治理涉及技術、社會和結果等維度。正如姚期智先生和張鈸先生演講中所提到的,人工智能治理面臨很多挑戰,其實很多挑戰可以通過技術來解決,包括解決安全、標準、基礎架構等問題。社會層面主要涉及倫理問題,通過設定規則來影響人工智能的發展和應用。在結果維度上,重點是解決負面效果,包括隱私、安全、歧視、貧富差距等問題。
再次,我談談人工智能治理的挑戰。第一,規制人工智能面臨困境。人工智能治理面臨的一個最大挑戰就是發展得太快,然而治理體系作為社會系統的一部分,其發展演變是緩慢的,從而產生步伐不一致的情況。我們擔心這種步伐不一致的情況將進一步加劇,去年我們人工智能治理委員會提出了八條治理原則,最后一條是敏捷治理,就是要改變原來傳統的治理模式。傳統的模式需要經過諸多政策制定程序,現在這種模式的確趕不上技術的變革,因此需要在不是那樣完整的政策制定過程條件下及時出臺政策,引導技術發展。第二,公共部門的矛盾角色。人工智能技術可以在公共部門中被廣泛應用,而公共部門自己也可能存在濫用情形。另外公共部門在應用人工智能的過程中面臨各種風險,也面臨各種挑戰。第三,推動企業負責任創新。企業是最活躍的主體,會與政府在治理過程中進行博弈,需要企業自律,包括如何與公眾和社會實現更好的交流。
此外,我想特別談一下人工智能為何需要國際治理。人工智能對我們整個人類未來發展有長遠的影響,過去人工智能的發展就是一部國際合作的歷史,我們對人工智能領域中中國與美國的學者合作的情況進行過分析,中美合作的研究成果占到比較大的比重,大量的國際合作是人工智能能夠發展到今天的非常重要的因素,今后還需要繼續合作。但另外一方面,人工智能也有可能給我們帶來重大風險,如傅瑩大使在演講中提到了人工智能也可能帶來毀滅性的影響,比如產生大規模的自主殺傷性武器。任何一個國家都無法單獨解決此類問題。無法判斷某些組織能夠發展此類技術,對各個主權國家產生威脅,因此就需要各個國家應該求同存異,共同應對此類問題,找到解決辦法。
最后,我們需要在過去研究探討的基礎上探索建立一個全球性的平臺或機制,協調人工智能未來發展面臨的緊迫的問題。第一,我們可以學習一些過往的機制,包括核技術的治理機制、空間法、氣候變化治理機制等。第二,加強人工智能研究領域的國際合作,不僅包括科學研究的技術開發領域的合作,也包括社會和倫理方面的合作。正如傅大使提到的清華大學與布魯金斯學會的合作就是一個非常好的典范,在這種合作中找到共同點,包括共同的價值觀念、共同的治理原則,還有一些差異。根據這些異同點,不斷探討和溝通,最后找到共同的準則,引導人工智能健康發展,最終為全人類造福。
責任編輯:YYX
-
人工智能
+關注
關注
1793文章
47566瀏覽量
239413
發布評論請先 登錄
相關推薦
評論