北京大學哲學系副主任劉哲認為,具有完全自主性的人工智能和機器人產品暫時不會出現,但仍應盡快加快我國的倫理監管工作,協調并進人工智能和機器人的倫理標準制訂。
倫理研究嵌入技術設計之初
受國家標準化管理委員會和國家機器人標準化總體組委托,我主持了《中國機器人倫理標準化白皮書2018》的制訂工作。在研究過程中,我注意到其他國家(例如英、美、日等國)出臺的機構白皮書以及相關政府報告中,人工智能和機器人并不判然分離。在我國相關倫理標準規劃中,這兩個領域倫理標準工作則是分別進行的。由于這兩個領域倫理問題交集很多,我建議人工智能和機器人倫理標準工作能夠協調合作進行,希望能夠達成共識。
在人工智能和機器人倫理標準方面,我國的研究現狀相對其他國家,包括日本、韓國在內,有一定程度滯后。國際社會對中國相關科技發展缺乏倫理監管的詬病非常不利于我們的技術發展。我們可以仔細想想,在過去幾十年的經濟高速發展過程中,倫理和社會價值驅動并不是經濟發展的根本增長模式。現在,當我們走到以硬科技作為平臺來推動經濟發展的階段時,我們已經繞不開對倫理和社會價值驅動的研究。這些技術無論是在工業、民用、還是軍事領域的使用,都涉及太多關于人的價值以及社會價值的問題。
之前我在參加一些座談時,有個直觀感受,即很多人傾向于把人工智能和機器人的監管治理委托給法律。然而,目前人工智能的概念還很模糊,包括產業的發展方向、技術發展的突破口都相當開放,沒人可以準確預測下一步會發展成什么樣。在這些新興科技自身尚未獲得充分認知,對個人和社會的沖擊尚未成型的時候,討論怎么立法,靠什么法律監管,這是根本無法做到的。法律規制具有一定的保守性,當人工智能和機器人帶來的現實問題還未出現的時候,是很難從法律方面進行監管的。從技術發展角度來說,當其引發的問題還沒有出現的時候就立法,甚至很可能會直接扼殺對國家工業、軍事、民生產生重要影響的技術突破,導致其無法繼續發展了。在這個背景下,人工智能和機器人倫理監管是各國正在普遍采取的一種策略。
從英美這些國家的做法來看,它們意圖把倫理價值融入在人工智能和機器人技術設計初期,而不是等事情發生了再去敲打。這種前瞻性的倫理路徑是非常值得借鑒的。在我們思考技術發展的時候,應該把倫理價值關注轉換成技術研發人員和工程師能懂的代碼,把它實現在技術、產品設計的初期。
舉個例子,在做《白皮書》的時候,我們看到有很多的論文是來自荷蘭的兩個大學(TU Delft和University of Twente),但這兩個大學在我們國內所熟知的傳統哲學領域并沒有非常顯赫的聲譽。讓我們特別詫異的是,他們的工作非常深入和系統,他們對人工智能和機器人的倫理研究緊密地融入在科技研發的平臺上。后來我們從國內科技界同仁那里了解到,這兩所大學都以機器人科技研發見長。他們的相關倫理研究并不是哲學系里一批人在單獨工作,而是依托大學自身的技術工程背景進行跨學科整合。從技術發端之始,他們就進行著跨學科的團隊合作,以此來推動倫理在科技創新中的深度融合。這對于我們未來產學研結構的調整是非常重要的啟發。
AI和機器人領域的倫理難題
對于工業機器人,大家首先關注的是它的安全問題,協作型機器人出現之前,發生過一些嚴重的機器人事故,各國都有。工業協作型機器人出現之后,大家更多關注的是其對就業崗位的沖擊。但也有另外一種聲音,據國際機器人聯合會(IFR)統計,機器人的確削減了很多就業崗位,但也增加了許多新興崗位。
美國的機器人和人工智能戰略中,提出人力資源管理部門要形成新的培訓體系,對新的崗位提供培訓平臺,這一點在應對人工智能和機器人帶來的崗位沖擊時至關重要。然而,要想讓再次就業成為可能,那就需要讓大學教育,甚至中小學教育模式進行調整。就業人員的素質不是一兩天能夠培訓出來的,也不是單純靠技術知識灌輸就可以完成的。若此問題解決不好,人工智能和機器人的廣泛應用對于中國就業就是剛性沖擊,會導致大量失業的出現。
第二,在工廠和車間中,當機器人和人進行協作作業時,工人在生產流程中被安排在什么樣的位置中是非常重要的。我們設想,如果我們現在的這個會議是由機器人來指揮,我們要服從于機器人的各種指令,人類會覺得自身的價值嚴重受損,所以我們在設計人工智能和機器人時還要充分考慮人自身的自我價值評價。
第三,當協作機器人大量進入工業生產中,這會大大降低人與人間協作交流的機會,容易造成很多人員心理方面的問題,這也是需要我們重點考量。
在醫療健康領域,情況更加復雜。有案例表明,IBM Watson在通過大量掃描和解讀醫學影像后,可能給出的診斷結論和治療建議與人類醫生結論相反。在中國本已異常復雜的醫患關系現實下,如果出現這種問題,患者和醫生將應如何面對?如果甚至由此出現治療問題,到底是人工智能設備、還是醫院、或是醫生來承擔責任?還是大家一起捆綁承擔?這些問題都是我們在引入這類新興技術的時候從一開始就要考慮的。
目前,保險業也開始對人工智能和機器人在醫療領域的應用產生興趣。這將帶來另外的風險。保險公司可能會在掌握醫療大數據(包括基因數據)基礎上提高投保門檻,并對采取什么樣的治療方案進行相當深度的干預,這些是和整個行業的利益捆綁在一起的。
另外一類,醫用機器人,比如現在很受歡迎的達芬奇機器人,進行機器人手術治療。在其官網上我們能看到很多案例介紹,達芬奇機器人優勢在于其精準率高,創口小和術后康復時間短。但由于每個患者個體差異非常大,機器人手術會在個別患者身上出現復雜情況。在這樣的手術復雜情況下,人類醫生手術不得不介入,反而導致創傷面更大,康復過程非常復雜。這樣的責任該由誰來承擔?是機器人,還是醫生、醫院、保險公司等等?表面上來看,醫療技術的進步可能是患者的福音,但真正介入行業的時候會發現很多問題。我國醫療資源的分配本來就很不均衡,這種高科技醫療機器人的使用,是否會加劇既有的不平衡?
還有一些進入我們家庭生活的服務機器人,這些機器人在面對人類同時間多元需求時,無法區分需求的優先等級。設想正在陪伴孩子娛樂的機器人面對母親召喚做一些廚房家務的指令,它將無法分配優先級并進行相應的回應。
還有日本在養老院推出的陪護機器人,最初設想是緩解老人之間缺乏溝通的孤獨、封閉狀態,通過把機器人擺在桌上,喚起老人對機器人的關愛從而引發老人彼此間的互動。但實際上這些陪護類機器人所面對的基本都是老人、兒童這類弱勢群體,尤其是自閉癥兒童。這類人群很容易形成人對于機器人和人工智能系統的單向情感綁定,這對于他們要更好地進行人類社會交流而言是災難性的。
再來講講軍事機器人,近年來有關這類機器人的倫理討論在國際上有很多。當機器人走上戰場,它們將如何區分平民和戰斗人員?此外,如果把大量機器人派到戰場上,這是否會大大降低發動戰爭的門檻,而并非削減戰爭?這對于國際政治秩序的沖擊也將是非常大的。
實際上,今天很多人工智能和機器人技術研發其實是和社會的需求緊密相關的。比如護理機器人,因為在日本、北歐以及中國普遍出現的人口老齡化問題,導致我們不得不在此領域投入更多的力量去應對社會未來潛在風險。再比如醫療領域,也和我們醫護人員嚴重不足息息相關。在無人駕駛領域,產業界會說人類駕駛交通事故率較高,無人駕駛可以讓駕駛變得更安全。實際上,以規則為基礎的方式為無人駕駛汽車嵌入一套道德法則是相當困難的。
即便在人類社會中,我們的道德規則體系之間也常常相互沖突,這不僅包括兩類現代倫理體系——義務論和后果主義這樣的倫理原則沖突,也包括古典美德倫理和現代倫理的沖突;而且不僅涉及東西方文化差異,還有非洲和拉美這些地域的文化差異。如果人們的價值體系、所訴求的道德原則以及行為準則,均展示巨大的文化差異,這種情況下,應該為機器人嵌入什么樣的倫理原則?由于今天國際化和流動性的增加,每個社會內部就是倫理價值多元的。在這種情況下,誰有權決定哪一種倫理原則應該被嵌入?難道科技公司巨頭來為人類決定道德生活規制?再則,責任分配和歸屬也面臨非常大的問題。不管采取什么樣的倫理原則,一旦出現了交通事故,該由誰來承擔責任,是制造商、駕駛員,還是機器人系統本身等等?以上這些問題還僅僅是冰山一角,人工智能和機器人產品帶來的挑戰和風險都是我們要去面對的。
英美的人工智能倫理研究
歐盟早在2004年,就啟動了對人工智能和機器人倫理問題的關注。英國議會的上院制定了一個雄心勃勃的計劃。他們提出英國要在人工智能和機器人倫理方面成為國際領袖。由此,英國要來引導和規劃全球人工智能和機器人的使用和研發。作為這個世紀的一個平臺性技術,人工智能和機器人倫理標準對于科研、產業方向布局會產生重大的影響。
目前國際上,英國BSI和美國IEEE對人工智能和機器人倫理標準的研究和制定相對領先,研究投入和持續性很強。英國以后果主義倫理的基本框架來制定標準,美國則試圖遵循新亞里士多德主義的美德倫理框架,并在第二版中增加了大量的對印度、非洲、日本倫理傳統的跨文化研究。其負責人海文斯(John Havens)在2016年第二版發布會上曾表示:隨著我們日益意識到文化和倫理價值的多元,我們必須要考慮到針對新興科技的倫理標準和價值需要達成國際性共識。
根據目前技術發展平臺,各國推出的人工智能和機器人倫理標準還沒有深入涉及具有完全道德自主性的人工智能和機器人系統。基于現在的技術發展以及可預見的未來,具有完全自主性的人工智能和機器人產品暫時不會出現,所以我所看到的各個標準也暫時未賦予機器人具有與人類同等的道德地位。
-
機器人
+關注
關注
211文章
28618瀏覽量
207927 -
人工智能
+關注
關注
1793文章
47604瀏覽量
239544
原文標題:學者之聲丨北京大學劉哲:倫理研究應與人工智能的技術發展相嵌融合
文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論