一年前,49歲的Elaine Herzberg在穿過亞利桑那州坦佩的一條馬路時,一輛Uber公司的汽車撞向了她。最終,Elaine經(jīng)搶救無效死亡。
彼時,無人駕駛正呈現(xiàn)一片熱火景象,但人們想不到的是,它還會以站在審判席上的形式讓自己進一步“出名”。
是的,這起重大交通悲劇的肇事者,并不是人,而是這輛車本身?;蛘吒鼫蚀_地說,是它的自動駕駛系統(tǒng)。
這場審判是漫長的,直到一年后的今天,一個不盡完美的結果:Uber不承擔刑事責任。但當時在車上負責安全的司機Rafael Vasquez(Uber安排了后備司機以防自動駕駛系統(tǒng)出問題)的行為應該由坦佩警方進一步調(diào)查。
最終,在AI引起的事故中,人仍然承擔了主要的責任。
但是,在可以預見的未來,面對一輛無需后備司機,真正的無人車肇事,我們的審判是不是會更加漫長和痛苦?
也許來的太早,但無人車事故等AI發(fā)展過程中必然會發(fā)生的陣痛,正在不斷提醒我們,是時候正視AI的道德倫理問題。
01AI要德才兼?zhèn)?/strong>
AI與前幾個世紀的革命性技術都有著巨大的不同。
我們曾經(jīng)如何提高生產(chǎn)力?通過提升能源動力(蒸汽、內(nèi)燃、電),或提高數(shù)據(jù)處理及信息傳遞效率(電話、計算機)。
但這些技術的運用是物質(zhì)的,機械式的,不具有抽象的思維屬性。比如你操作紡織機,按一下開關它執(zhí)行一個工作,不多不少。
但AI是一項認知技術。
正如其名“人工智能”,它擁有精神活動,具備思考能力。它是一個中樞系統(tǒng),能通過“接觸、認知、理解、學習”這一系列“大腦活動”后,運用一系列設備完成復雜任務。因此,它可以應用于各種領域,并具有自主性與創(chuàng)造性。
顯然,機器人比紡織機能執(zhí)行更多需求
基于深度學習等理論的發(fā)展,AI將越來越像人類一樣去思考,工作起來也愈發(fā)靈活,似乎實現(xiàn)終極目標:讓AI可以代替人類完成世界上大部分工作的日子已經(jīng)越來越近了。
可我們經(jīng)常會忽視一個問題,生活中一切復雜的事,都充滿了選擇與變化,這不只是高性能可以解決的。
人類如何行動?靠是非觀、價值觀、道德意識等等,我們一般稱為“靈活思考”。
AI如何行動?在沒有道德倫理引導時,即使擁有與人類無差別的思考能力,它也是“任務優(yōu)先”。AI基于指令、邏輯、最多再加一些理性來做出行動,我們稱為“死腦筋”。
只有“死腦筋”的AI是可怕的。
在電影《2001太空漫游》中,人類的木星探測飛船搭載的超級電腦HAL 9000收到了兩條指令:1. 不惜一切代價完成木星任務;2. 向船員隱瞞實情。其實兩條指令互相矛盾,因為船員對任務完成至關重要,但HAL最終毫不猶豫地停止了船員的冬眠維生裝置。
回到最近的現(xiàn)實,18年震驚全國的悲劇“空姐搭滴滴順風車遇害案”中,暴露出滴滴軟件的社交功能,可以針對性地智能推送乘客過往評價給司機,此時系統(tǒng)優(yōu)先考慮的是如何提高匹配接單率和商業(yè)效益,卻忽視了女性等潛在受害者的利益。
因此,從人類的角度來說,道德倫理的作用,就是讓AI也能像人一樣正確地“靈活思維”,即能跨越指令的束縛,規(guī)避對人類造成傷害的風險。
02制造一個道德機器
“也許我們所有人都應該暫停片刻,把我們的研究重點從提升AI能力轉移到最大化AI的社會效益上面?!薄返俜摇せ艚?/p>
拋開AI擁有人心或靈魂的科幻思辨,目前它們的思維活動仍然無法做到像人類那樣有彈性,所以,讓AI學習的道德倫理,也必須盡可能采用簡潔直接的方式
比如,做選擇題。
什么選擇題?在出現(xiàn)價值沖突時,選擇符合社會效益的一方。
當工廠發(fā)生火災時,用于保護公司財產(chǎn)的服務機器人會面臨:
A.搶救公司財產(chǎn)(原最高指令)
B.營救被困工人(道德)
而接受道德倫理引導的機器人會選擇B。
讓機器做選擇題是一個繁瑣的過程,因為價值沖突出現(xiàn)在不同的人類活動中,衍生出不可計數(shù)的抉擇,我們能做的,就是在AI的實踐中發(fā)現(xiàn)這些沖突,并從倫理的角度設置原則
按美國耶魯大學教授溫德爾·瓦拉赫和認知哲學家科林·艾倫2008年年合著《道德機器:如何讓機器人明辨是非》一書中的觀點,這是一種自上而下的道德倫理養(yǎng)成,即把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進去,驅(qū)動決策。
再比如,設定“基本道德”。
除了具體決策原則,AI還應具有一個宏觀的程式,以盡可能在沒有針對陌生場景時,做出正確選擇。
還是要提到“機器人三定律”——
1.機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;
2.在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;
3.在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。
很多人認為三定律是紙面上的一套原則,但阿西莫夫在書中為其設置了很嚴謹?shù)膱?zhí)行方案,根據(jù)《機器人短篇全集》中的敘述,三原則被放入機器人內(nèi)置的“機器道德調(diào)節(jié)器”——將道德規(guī)范直接嵌入AI的編碼底層,通過技術手段實現(xiàn)對AI倫理的規(guī)范。
感謝阿西莫夫,雖然源于幻想,但基于AI遵循邏輯的特性而設置的這套定律,成為了學界在進行AI倫理研究時的重要參考。
機器人三定律的意義是提出了一個AI的道德思路:即人的生命>客觀任務>機器自身,借此保證AI對社會效益做出貢獻,而不是失控后對人類的未來發(fā)展產(chǎn)生威脅。
03挑戰(zhàn),更多的挑戰(zhàn)
不可否認的是,即使有方向,有計劃,人類在AI的道德倫理培養(yǎng)上仍然道阻且長。
首先,人類自身的道德倫理體系尚未成熟.
雖然人類文明已走過數(shù)千年,但在道德和倫理上,我們至今沒有形成普世的,明確的標準。目前被大家所承認的,還是一些符合多數(shù)派的大體原則。在自身尚不成熟的情況下,對AI進行道德倫理的設計時必將遭遇分歧。
除了道德設計,分歧還將延續(xù)到對AI造成的事故/罪案的審判中,集中在兩個問題:
如何問責?比如Uber無人車肇事案,除了駕駛系統(tǒng)和安全員外,開發(fā)系統(tǒng)的程序員、汽車測試負責人、車載感應設備的供應商是否都有不可推卸的責任?在缺乏明確的法律和道德條約的前提下,每一方都會站在自己的立場去解釋。
由AI擔責時,如何裁定?AI的行為可以具有和人一樣的效力,即AI是否按自我決策做出行動?如果確定AI擔責,那么依據(jù)何種條約來定罪,是人類的法律條文,亦或是AI的道德倫理原則?在這些論題上,不同道德基準的不同群體也會爭論不止。
其次,價值沖突的兩難決策不可規(guī)避。
前文我們提到,在價值沖突中,AI應優(yōu)先保護生命。
但如果是像“電車難題”那樣,兩邊都是生命時?AI要如何取舍“小我”和“大我”?
救5人還是救1人?
在AI的道德基準仍然由人類設定的前提下,這些兩難情況下的判斷離不開人類的影響。
但正如第一個挑戰(zhàn)指出的,人類自身的道德倫理標準是不統(tǒng)一的。
根據(jù)麻省理工學院在2018年10月發(fā)表在《自然》雜志的論文,把“電車難題”放入自動駕駛場景,設計突發(fā)情況下無人車面對不同生命如何選擇的問題。并通過研究團隊開發(fā)的“道德機器”征集200多個國家,200多萬在線參與者的意見。
結果,參與者的答案顯示出了多種不同傾向,有的傾向于保護多數(shù)人和年輕人,有的則傾向保護老人,甚至有的更愿意選擇保護動物!
可以看出,如果這些傾向中的一種被作為原則編入AI的程序,那么必將大范圍的在各類兩難抉擇中,放大該群體的價值判斷。而這對于被忽視的弱勢一方又勢必是不公平的。
最后,機器學習有產(chǎn)生偏見的風險。
像人類一樣,掌握了機器學習能力的AI也不會始終理性客觀。
以人臉識別為例,去年2月《紐約時報》就指出針對不同種族的人臉識別,準確率存在巨大差異。同樣,亞馬遜的AI雇員系統(tǒng)在對員工簡歷進行學習后,在打分工作中對女性的分數(shù)都會偏低。這是因為系統(tǒng)在學習外貌和性別等特征數(shù)據(jù)時,產(chǎn)生了“偏見”。
AI的算法會對人類輸入數(shù)據(jù)的頻率以及偏好進行放大,并逐漸形成既定的認知,更為頭痛的是,和人類會有意識地去抵制偏見不同,AI只會不斷加深自己所學到的“偏見”
綜上,當AI如人腦一般復雜時,即使有著程序和道德約束裝置的存在,我們?nèi)詿o法100%保證AI會成為一個理想的道德楷模。
即便如此,AI擁有道德意識仍然是必要的。因為——
04成熟的AI必將承擔責任
人類的法律中經(jīng)常會提到的一個概念是“刑事能力”,即行為人構成犯罪和承擔刑事責任所必須具備的刑法意義上辨認和控制自己行為的能力。
而為AI賦予道德倫理的意義之一,就是讓AI具有自己的“刑事能力”,當AI造成事故甚至是犯罪時,有依據(jù)證明其行為經(jīng)過了道德選擇與決策,并據(jù)此進行對AI本身或其開發(fā)者的追責,即“承擔責任”。
而對于AI道德倫理培養(yǎng)中遇到的問題,人類也正在采取更加靈活的解決方式。
除了自上而下的灌輸,瓦拉赫和艾倫還在《道德機器》中提到的,自下而上的,通過數(shù)據(jù)驅(qū)動,AI自行對道德與倫理問題進行思辨,實現(xiàn)意識的進化;或者采用混合進路系統(tǒng),即將人工輸入指令與AI自主學習結合起來,讓AI在普世價值規(guī)范的基礎上,與人類針對微觀的抉擇難題進行互動,不斷完善其道德倫理系統(tǒng)。
但歸根結底,作為AI的創(chuàng)造者,一切還是要回歸于人。
人類不能期望將所有的事都一攬子扔給AI去解決,畢竟,負責任的AI,離不開在道德倫理的完善上負起責任的人類。
-
AI
+關注
關注
87文章
31028瀏覽量
269381 -
Uber
+關注
關注
0文章
411瀏覽量
36275
原文標題:Uber無人車致死案宣判,有道德的AI離我們有多遠?
文章出處:【微信號:Deep_Learning-2018,微信公眾號:深度學習和機器視覺】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論