在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

電車難題,兩邊都是生命時? AI要如何取舍“小我”和“大我”?

電子工程師 ? 來源:YXQ ? 2019-03-31 10:53 ? 次閱讀

一年前,49歲的Elaine Herzberg在穿過亞利桑那州坦佩的一條馬路時,一輛Uber公司的汽車撞向了她。最終,Elaine經(jīng)搶救無效死亡。

彼時,無人駕駛正呈現(xiàn)一片熱火景象,但人們想不到的是,它還會以站在審判席上的形式讓自己進一步“出名”。

是的,這起重大交通悲劇的肇事者,并不是人,而是這輛車本身?;蛘吒鼫蚀_地說,是它的自動駕駛系統(tǒng)。

這場審判是漫長的,直到一年后的今天,一個不盡完美的結果:Uber不承擔刑事責任。但當時在車上負責安全的司機Rafael Vasquez(Uber安排了后備司機以防自動駕駛系統(tǒng)出問題)的行為應該由坦佩警方進一步調(diào)查。

最終,在AI引起的事故中,人仍然承擔了主要的責任。

但是,在可以預見的未來,面對一輛無需后備司機,真正的無人車肇事,我們的審判是不是會更加漫長和痛苦?

也許來的太早,但無人車事故等AI發(fā)展過程中必然會發(fā)生的陣痛,正在不斷提醒我們,是時候正視AI的道德倫理問題

01AI要德才兼?zhèn)?/strong>

AI與前幾個世紀的革命性技術都有著巨大的不同。

我們曾經(jīng)如何提高生產(chǎn)力?通過提升能源動力(蒸汽、內(nèi)燃、電),或提高數(shù)據(jù)處理及信息傳遞效率(電話、計算機)。

但這些技術的運用是物質(zhì)的,機械式的,不具有抽象的思維屬性。比如你操作紡織機,按一下開關它執(zhí)行一個工作,不多不少。

但AI是一項認知技術。

正如其名“人工智能”,它擁有精神活動,具備思考能力。它是一個中樞系統(tǒng),能通過“接觸、認知、理解、學習”這一系列“大腦活動”后,運用一系列設備完成復雜任務。因此,它可以應用于各種領域,并具有自主性與創(chuàng)造性。

顯然,機器人比紡織機能執(zhí)行更多需求

基于深度學習等理論的發(fā)展,AI將越來越像人類一樣去思考,工作起來也愈發(fā)靈活,似乎實現(xiàn)終極目標:讓AI可以代替人類完成世界上大部分工作的日子已經(jīng)越來越近了。

可我們經(jīng)常會忽視一個問題,生活中一切復雜的事,都充滿了選擇與變化,這不只是高性能可以解決的。

人類如何行動?靠是非觀、價值觀、道德意識等等,我們一般稱為“靈活思考”。

AI如何行動?在沒有道德倫理引導時,即使擁有與人類無差別的思考能力,它也是“任務優(yōu)先”。AI基于指令、邏輯、最多再加一些理性來做出行動,我們稱為“死腦筋”。

只有“死腦筋”的AI是可怕的。

在電影《2001太空漫游》中,人類的木星探測飛船搭載的超級電腦HAL 9000收到了兩條指令:1. 不惜一切代價完成木星任務;2. 向船員隱瞞實情。其實兩條指令互相矛盾,因為船員對任務完成至關重要,但HAL最終毫不猶豫地停止了船員的冬眠維生裝置。

回到最近的現(xiàn)實,18年震驚全國的悲劇“空姐搭滴滴順風車遇害案”中,暴露出滴滴軟件的社交功能,可以針對性地智能推送乘客過往評價給司機,此時系統(tǒng)優(yōu)先考慮的是如何提高匹配接單率和商業(yè)效益,卻忽視了女性等潛在受害者的利益。

因此,從人類的角度來說,道德倫理的作用,就是讓AI也能像人一樣正確地“靈活思維”,即能跨越指令的束縛,規(guī)避對人類造成傷害的風險。

02制造一個道德機器

“也許我們所有人都應該暫停片刻,把我們的研究重點從提升AI能力轉移到最大化AI的社會效益上面?!薄返俜摇せ艚?/p>

拋開AI擁有人心或靈魂的科幻思辨,目前它們的思維活動仍然無法做到像人類那樣有彈性,所以,讓AI學習的道德倫理,也必須盡可能采用簡潔直接的方式

比如,做選擇題。

什么選擇題?在出現(xiàn)價值沖突時,選擇符合社會效益的一方。

當工廠發(fā)生火災時,用于保護公司財產(chǎn)的服務機器人會面臨:

A.搶救公司財產(chǎn)(原最高指令)

B.營救被困工人(道德)

而接受道德倫理引導的機器人會選擇B。

讓機器做選擇題是一個繁瑣的過程,因為價值沖突出現(xiàn)在不同的人類活動中,衍生出不可計數(shù)的抉擇,我們能做的,就是在AI的實踐中發(fā)現(xiàn)這些沖突,并從倫理的角度設置原則

按美國耶魯大學教授溫德爾·瓦拉赫和認知哲學家科林·艾倫2008年年合著《道德機器:如何讓機器人明辨是非》一書中的觀點,這是一種自上而下的道德倫理養(yǎng)成,即把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進去,驅(qū)動決策。

再比如,設定“基本道德”。

除了具體決策原則,AI還應具有一個宏觀的程式,以盡可能在沒有針對陌生場景時,做出正確選擇。

還是要提到“機器人三定律”——

1.機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;

2.在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;

3.在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。

很多人認為三定律是紙面上的一套原則,但阿西莫夫在書中為其設置了很嚴謹?shù)膱?zhí)行方案,根據(jù)《機器人短篇全集》中的敘述,三原則被放入機器人內(nèi)置的“機器道德調(diào)節(jié)器”——將道德規(guī)范直接嵌入AI的編碼底層,通過技術手段實現(xiàn)對AI倫理的規(guī)范。

感謝阿西莫夫,雖然源于幻想,但基于AI遵循邏輯的特性而設置的這套定律,成為了學界在進行AI倫理研究時的重要參考。

機器人三定律的意義是提出了一個AI的道德思路:即人的生命>客觀任務>機器自身,借此保證AI對社會效益做出貢獻,而不是失控后對人類的未來發(fā)展產(chǎn)生威脅。

03挑戰(zhàn),更多的挑戰(zhàn)

不可否認的是,即使有方向,有計劃,人類在AI的道德倫理培養(yǎng)上仍然道阻且長。

首先,人類自身的道德倫理體系尚未成熟.

雖然人類文明已走過數(shù)千年,但在道德和倫理上,我們至今沒有形成普世的,明確的標準。目前被大家所承認的,還是一些符合多數(shù)派的大體原則。在自身尚不成熟的情況下,對AI進行道德倫理的設計時必將遭遇分歧。

除了道德設計,分歧還將延續(xù)到對AI造成的事故/罪案的審判中,集中在兩個問題:

如何問責?比如Uber無人車肇事案,除了駕駛系統(tǒng)和安全員外,開發(fā)系統(tǒng)的程序員、汽車測試負責人、車載感應設備的供應商是否都有不可推卸的責任?在缺乏明確的法律和道德條約的前提下,每一方都會站在自己的立場去解釋。

由AI擔責時,如何裁定?AI的行為可以具有和人一樣的效力,即AI是否按自我決策做出行動?如果確定AI擔責,那么依據(jù)何種條約來定罪,是人類的法律條文,亦或是AI的道德倫理原則?在這些論題上,不同道德基準的不同群體也會爭論不止。

其次,價值沖突的兩難決策不可規(guī)避。

前文我們提到,在價值沖突中,AI應優(yōu)先保護生命。

但如果是像“電車難題”那樣,兩邊都是生命時?AI要如何取舍“小我”和“大我”?

救5人還是救1人?

在AI的道德基準仍然由人類設定的前提下,這些兩難情況下的判斷離不開人類的影響。

但正如第一個挑戰(zhàn)指出的,人類自身的道德倫理標準是不統(tǒng)一的。

根據(jù)麻省理工學院在2018年10月發(fā)表在《自然》雜志的論文,把“電車難題”放入自動駕駛場景,設計突發(fā)情況下無人車面對不同生命如何選擇的問題。并通過研究團隊開發(fā)的“道德機器”征集200多個國家,200多萬在線參與者的意見。

結果,參與者的答案顯示出了多種不同傾向,有的傾向于保護多數(shù)人和年輕人,有的則傾向保護老人,甚至有的更愿意選擇保護動物!

可以看出,如果這些傾向中的一種被作為原則編入AI的程序,那么必將大范圍的在各類兩難抉擇中,放大該群體的價值判斷。而這對于被忽視的弱勢一方又勢必是不公平的。

最后,機器學習有產(chǎn)生偏見的風險。

像人類一樣,掌握了機器學習能力的AI也不會始終理性客觀。

以人臉識別為例,去年2月《紐約時報》就指出針對不同種族的人臉識別,準確率存在巨大差異。同樣,亞馬遜的AI雇員系統(tǒng)在對員工簡歷進行學習后,在打分工作中對女性的分數(shù)都會偏低。這是因為系統(tǒng)在學習外貌和性別等特征數(shù)據(jù)時,產(chǎn)生了“偏見”。

AI的算法會對人類輸入數(shù)據(jù)的頻率以及偏好進行放大,并逐漸形成既定的認知,更為頭痛的是,和人類會有意識地去抵制偏見不同,AI只會不斷加深自己所學到的“偏見”

綜上,當AI如人腦一般復雜時,即使有著程序和道德約束裝置的存在,我們?nèi)詿o法100%保證AI會成為一個理想的道德楷模。

即便如此,AI擁有道德意識仍然是必要的。因為——

04成熟的AI必將承擔責任

人類的法律中經(jīng)常會提到的一個概念是“刑事能力”,即行為人構成犯罪和承擔刑事責任所必須具備的刑法意義上辨認和控制自己行為的能力。

而為AI賦予道德倫理的意義之一,就是讓AI具有自己的“刑事能力”,當AI造成事故甚至是犯罪時,有依據(jù)證明其行為經(jīng)過了道德選擇與決策,并據(jù)此進行對AI本身或其開發(fā)者的追責,即“承擔責任”。

而對于AI道德倫理培養(yǎng)中遇到的問題,人類也正在采取更加靈活的解決方式。

除了自上而下的灌輸,瓦拉赫和艾倫還在《道德機器》中提到的,自下而上的,通過數(shù)據(jù)驅(qū)動,AI自行對道德與倫理問題進行思辨,實現(xiàn)意識的進化;或者采用混合進路系統(tǒng),即將人工輸入指令與AI自主學習結合起來,讓AI在普世價值規(guī)范的基礎上,與人類針對微觀的抉擇難題進行互動,不斷完善其道德倫理系統(tǒng)。

但歸根結底,作為AI的創(chuàng)造者,一切還是要回歸于人。

人類不能期望將所有的事都一攬子扔給AI去解決,畢竟,負責任的AI,離不開在道德倫理的完善上負起責任的人類。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31028

    瀏覽量

    269381
  • Uber
    +關注

    關注

    0

    文章

    411

    瀏覽量

    36275

原文標題:Uber無人車致死案宣判,有道德的AI離我們有多遠?

文章出處:【微信號:Deep_Learning-2018,微信公眾號:深度學習和機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    從算法到生命,自動化人工生命搜索已然顯現(xiàn)?

    」像生命體一樣運作。 ASAL 其中一位研究者 Phillip Isola 近日,Sakana AI團隊攜手麻省理工學院(MIT)、開放人工智能研究院(OpenAI)以及瑞士AI實驗室IDSIA等機構研究人員,共同提出了“自動化
    的頭像 發(fā)表于 12-31 10:54 ?75次閱讀
    從算法到<b class='flag-5'>生命</b>,自動化人工<b class='flag-5'>生命</b>搜索已然顯現(xiàn)?

    坡在線監(jiān)測系統(tǒng)有哪些優(yōu)勢

    坡穩(wěn)定性監(jiān)測是預防地質(zhì)災害、保障人民生命財產(chǎn)安全的關鍵環(huán)節(jié)。坡在線監(jiān)測系統(tǒng)作為坡穩(wěn)定性監(jiān)測領域的科技創(chuàng)新成果,憑借其高精度、低功耗、易安裝等特點,為
    的頭像 發(fā)表于 10-23 15:41 ?152次閱讀
    <b class='flag-5'>邊</b>坡在線監(jiān)測系統(tǒng)有哪些優(yōu)勢

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章-AI生命科學讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章關于AI生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和
    發(fā)表于 10-14 09:21

    采用iso124進行隔離,隔離后的兩邊地的電壓差為100v左右,是否正常?

    采用iso124進行隔離 隔離后的兩邊地的電壓差為100v左右,是否正常。
    發(fā)表于 09-14 06:28

    THS3201的評估版上電源層左右兩邊為什么分隔開?

    發(fā)表于 09-12 07:59

    坡監(jiān)測設備:保護坡安全的利器

    坡監(jiān)測設備以其高精度、實時監(jiān)測、長時間穩(wěn)定工作等優(yōu)勢,在坡安全監(jiān)測領域發(fā)揮著重要的作用,是現(xiàn)代社會防災減災、保障坡工程安全的重要技術手段。隨著技術的不斷進步,坡監(jiān)測設備將更加智
    的頭像 發(fā)表于 08-19 16:45 ?364次閱讀

    坡安全預警:守護生命財產(chǎn)安全的堅實屏障

    坡失穩(wěn)、滑坡等事故的發(fā)生給國家和人民生命財產(chǎn)安全帶來嚴重威脅,因此,加強坡安全預警工作,對于守護人們的生命財產(chǎn)安全具有重要意義。
    的頭像 發(fā)表于 08-19 16:33 ?292次閱讀

    pcb沒有工藝怎么貼片

    當PCB沒有工藝時,進行貼片加工需要特別注意以下幾點,以確保貼片過程的順利進行和最終產(chǎn)品的質(zhì)量。 一、了解工藝的作用 工藝是PCB板兩邊或四
    的頭像 發(fā)表于 08-15 09:45 ?932次閱讀

    中偉視界:實時監(jiān)控與預警,礦山罐籠超員AI算法如何保障礦工生命安全?

    隨著礦山智能化的發(fā)展,罐籠超員AI算法在礦山安全管理中發(fā)揮著關鍵作用。本文詳細介紹了罐籠超員AI算法的工作原理、技術實現(xiàn)和應用效果,并展望了未來的發(fā)展方向。通過實時監(jiān)控和預警,罐籠超員AI算法有效保障了礦工的
    的頭像 發(fā)表于 07-12 08:54 ?339次閱讀

    后摩智能引領AI芯片革命,推出端大模型AI芯片M30

    的技術實力,推出了基于存算一體架構的端大模型AI芯片——后摩漫界??M30,引領了AI芯片領域的新一輪革命。
    的頭像 發(fā)表于 06-28 15:13 ?705次閱讀

    華為懸紅200萬全球求解難題 存儲技術和AI新型數(shù)據(jù)底座

    華為懸紅200萬全球求解難題? ?存儲技術和AI新型數(shù)據(jù)底座 ? ? ? 早在2019年,為加速科研成果產(chǎn)業(yè)化,突破關鍵技術難題;華為就已經(jīng)開始每年發(fā)布奧林帕斯難題百萬懸紅“奧林帕斯獎
    的頭像 發(fā)表于 05-27 18:10 ?1038次閱讀

    AI坡監(jiān)測識別攝像機

    的圖像,并利用AI算法對邊坡的形態(tài)、位移等進行分析和識別,有助于減少地質(zhì)災害造成的損失,保護人們的生命和財產(chǎn)安全。AI坡監(jiān)測識別攝像機的應用具有許多優(yōu)勢。首先,
    的頭像 發(fā)表于 04-19 10:28 ?490次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>邊</b>坡監(jiān)測識別攝像機

    PCBA為什么設計工藝

    PCBA工藝也叫工作,是為了SMT加工時留出軌道傳輸位置、放置拼版Mark點而設置的長條形空白板邊。
    發(fā)表于 03-25 14:13 ?849次閱讀

    PCBA為什么設計工藝?設計工藝有什么好處嗎?

    PCBA設計師們在設計線路板的時候,往往會預留工藝。這么做得到原因大家知道是為什么嗎?設計工藝有什么好處嗎?今天給大家講解一下PCBA為什么設計工藝?
    的頭像 發(fā)表于 03-22 11:45 ?1430次閱讀

    求助,為什么要在MCU晶體兩邊各接一對地電容?

    在MCU晶體兩邊各接一對地電容的原因
    發(fā)表于 01-22 06:35
    主站蜘蛛池模板: 色网站在线播放| 亚洲韩国欧美一区二区三区| 午夜精品久久久久久久久| 在线视频 亚洲| 午夜一级影院| 人人干干| аⅴ资源中文在线天堂| 分分精品| 99久久精品国产自免费| 亚洲天堂成人在线| 特黄黄三级视频在线观看| 日韩电影中文字幕| 久久久久免费精品国产小说| 国产免费黄视频| 午夜观看| 国产精品福利午夜一级毛片| 黄色 在线| 99国产在线| 色偷偷免费| 久久日精品| 又黄又爽又猛午夜性色播在线播放 | 国产黄色大全| 最黄毛片| 日本xxxx色视频在线观看免费| 免费的男女拍拍拍的视频| 国产乱码一区二区三区四川人| 午夜手机福利| 99久久免费午夜国产精品| 欧美经典三级春潮烂漫海棠红| 桃色婷婷| 国产三级黄色毛片| 日本视频免费高清一本18| 性欧美xxxx| 伊人久久综合网亚洲| 欧美三级免费观看| 亚洲国产成人久久精品影视| 97影院午夜午夜伦不卡| 一级 黄 色 片免费| 日本a网站| 在线免费观看视频黄| aaa在线观看视频高清视频|