想象一下,在一個安靜的大學(xué)教室,學(xué)生們都在各自的座位上愜意的自習(xí)。
突然,一群小如蜜蜂的不明飛行物從窗戶、門縫蜂擁而入,他們盤旋在教室上空,似乎在進(jìn)行著掃描和確認(rèn)。終于,一個沉悶的聲音過后,響起了一聲尖叫——一個男孩倒在了血泊之中。
僅0.5秒的時間,一只“小蜜蜂”將其攜帶的3克炸藥傾注在男孩頭上,男生當(dāng)場死亡。頓時,教室成為了屠宰場,彌漫著尖叫和恐懼。
如此血腥的場景來自于美國加州大學(xué)的斯圖爾特·羅素爾教授公布的一段視頻。雖然視頻中“殺人蜂”進(jìn)行的殺戮并非真實存在,但我們必須清楚的是,視頻中的科技目前已經(jīng)存在。
聯(lián)合國特定常規(guī)武器公約會議的“殺手機(jī)器人禁令運動”
日前,韓國科學(xué)技術(shù)院于近期開設(shè)了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù)。
這引起業(yè)內(nèi)專家的廣泛擔(dān)憂,30個國家和地區(qū)的人工智能及機(jī)器人專家宣布將抵制研究人工智能武器的韓國科學(xué)技術(shù)院(KAIST),但該大學(xué)并未承諾停止研發(fā)。
早在2017年,劍橋大學(xué)的生存威脅研究機(jī)構(gòu)相關(guān)人員就列出了10種可能導(dǎo)致世界末日、人類滅絕的威脅。名列前茅的正是人工智能和殺手機(jī)器人。
軍用殺人機(jī)器人“由來已久”
2012年,聯(lián)合國人權(quán)理事會克里斯多夫·海因斯曾發(fā)布一份報告,呼吁各國凍結(jié) “殺人機(jī)器人”試驗、生產(chǎn)和使用。
他認(rèn)為:“機(jī)器人沒有人類的感情,它們不會理解和辨別人類的情感,由于沒有足夠的法律問責(zé)制度,加上機(jī)器人不應(yīng)該擁有決定人類生死的權(quán)力,因此部署此類武器系統(tǒng)可能令人無法接受?!?/p>
如若對軍用殺人機(jī)器人定義為“不需要人類干預(yù),或者只需要遠(yuǎn)程要求,即可在戰(zhàn)場上完成軍事行動的自動機(jī)械”的話,自動炮臺、掃雷機(jī)器人、軍用無人機(jī)均可以包括在內(nèi)。而且,這類事物活躍在戰(zhàn)場上的時間遠(yuǎn)比人們想象中長,機(jī)器人“殺人”,從很早以前就開始了。
二戰(zhàn)時期,德軍曾經(jīng)研制過一種名為“歌利亞遙控炸彈”的反坦克武器。這是一種通過有線遙控(必要時也可無線遙控)來控制的無人“袖珍坦克”,搭載著烈性炸藥,可直接經(jīng)由坦克底部裝甲炸毀重型坦克。
“歌利亞遙控炸彈”
隨著集成電路技術(shù)出現(xiàn)并不斷完善,計算機(jī)的體積不斷縮小,20世紀(jì)80年代,計算機(jī)可搭載在軍用無人載具之內(nèi)。
同時,計算機(jī)的功能也在不斷完善,可以完成控制載具行進(jìn)、尋找目標(biāo)、敵我識別和發(fā)射武器等一系列任務(wù),而且相對穩(wěn)定可靠,能夠適應(yīng)復(fù)雜多變的戰(zhàn)場環(huán)境。
目前為人熟知的“掠食者”無人機(jī),本質(zhì)就是軍用殺人機(jī)器人。此外,一些國家已經(jīng)在研制自動化程度更高的戰(zhàn)斗機(jī)器人,允許它們在戰(zhàn)場上自主尋找、選擇目標(biāo),再自己決定是否開火。
MQ-9收割者偵查機(jī)
是人性還是倫理?這是一個問題
電影《終結(jié)者》給我們描述了一個機(jī)器人殺戮和奴役人類的黑暗未來,雖然電影中的場景短期內(nèi)難以在現(xiàn)實生活中復(fù)現(xiàn),智能相對論分析師柯鳴認(rèn)為,軍用殺人機(jī)器人的研究和使用,不僅是人性問題,更是倫理問題。
1.是戰(zhàn)斗員還是武器?
傳統(tǒng)戰(zhàn)爭主要發(fā)生在國家和政治集團(tuán)之間,戰(zhàn)爭主體是軍隊和軍人。而殺人機(jī)器人的研發(fā)和應(yīng)用,軍人不再是戰(zhàn)爭的唯一戰(zhàn)士,戰(zhàn)爭主體地位更加復(fù)雜。
傳統(tǒng)火炮、坦克、戰(zhàn)艦離不開人手的操作,軍人乃是戰(zhàn)爭的主體。而殺人機(jī)器人具有人工智能、會思考、能判斷,可以自動發(fā)現(xiàn)、識別和打擊目標(biāo),自主地完成人賦予的任務(wù),因而就能替代軍人沖鋒陷陣。
如果殺人機(jī)器人上了戰(zhàn)場,它們就是真正的戰(zhàn)斗員。然而殺人機(jī)器人是一種具有行為能力卻沒有責(zé)任能力的戰(zhàn)斗員,它不同于傳統(tǒng)意義上的軍人戰(zhàn)斗員,也不同于武器。殺人機(jī)器人到底是戰(zhàn)斗員還是武器,將難以界定,相應(yīng)其倫理地位也難以確定。
2.安全問題如何保證?
殺人機(jī)器人也沒有感情,不會理解和辨別人類的情感,無法識別眼前被殺戮者是敵是友。自主的殺人機(jī)器人如果成為戰(zhàn)爭工具,難以保證不濫殺無辜,尤其是某種原因?qū)е率Э毓收?,沒有人保證它不會襲擊人類戰(zhàn)友的情況,傷害創(chuàng)造它們、軀體卻弱于它們的智慧種族。
事實上,目前還沒有一套控制自動系統(tǒng)出錯的有效措施。一旦程序出錯,或者被人惡意篡改,很可能造成血流成河的慘劇,人類的安全將面臨極大的威脅。如果對研制具有殺人能力的智能機(jī)器人不加以限制,總有一天會出現(xiàn)這樣的局面:“全自動”的“殺人機(jī)器人”走上戰(zhàn)場,并自主決定著人類的生死。
3.精準(zhǔn)敵我識別如何做到?
從冷兵器時代至今,由于敵我識別不暢導(dǎo)致的誤傷,一直是戰(zhàn)場上難以避免的問題?,F(xiàn)代戰(zhàn)爭中往往會使用技術(shù)手段來避免誤傷,但如果想要讓軍用機(jī)器人完全自主行動,需要解決的問題還要更多。
人類士兵不僅可以判斷某個移動的人是敵人、友軍還是平民百姓,而且能夠相對準(zhǔn)確地了解對方的來意。但對于軍用機(jī)器人來說,它們最多只能分清敵我,卻通常難以判斷對方的“心思”,所以很可能出現(xiàn)槍殺投降士兵和戰(zhàn)俘的情況,而這一舉動是被國際公約所禁止的。
4.是否賦予自主“殺人能力”?
是否賦予自主行動的機(jī)器人“殺人的能力”,一直是包括人工智能、軍事在內(nèi)的各方專家學(xué)者討論的焦點。1940年,著名科幻作家伊薩克·阿西莫夫提出了“機(jī)器人三原則”。他指出:“機(jī)器人不得傷害人類;必須服從人類指令,但不得與第一原則抵觸;必須保存自身,但不得與前兩條原則抵觸?!?/p>
機(jī)器人發(fā)展與道義的關(guān)系
菲利普·迪克在《第二變種》中描述了軍用機(jī)器人對人類社會的滲透:在美蘇核戰(zhàn)之后,美國為避免亡國,制造了可以自行組裝、學(xué)習(xí)并且割人咽喉的軍用機(jī)器人,用以襲擊蘇聯(lián)占領(lǐng)軍;但這些機(jī)器人不斷進(jìn)化,自行組裝了具有蘇軍男女士兵和營養(yǎng)不良兒童等外觀的新型機(jī)器人,不僅攻擊人類,也自相殘殺,甚至潛入美國在月球的秘密基地,埋下了人類滅亡的伏筆。
當(dāng)然,單個軍用機(jī)器人如果出現(xiàn)程序錯誤,乃至受到來自敵方的干擾或者計算機(jī)病毒破壞,確實有可能出現(xiàn)襲擊人類戰(zhàn)友的情況。
但如果據(jù)此擔(dān)心機(jī)器人獲得自我意識之后,會全體背叛人類并自行制造同伴, 仍然為時尚早。
究竟是阿里巴巴山洞還是潘多拉魔盒?
耶魯大學(xué)的研究人員把軍用機(jī)器人列為人工智能技術(shù)最有前途的應(yīng)用領(lǐng)域之一。軍用機(jī)器人的用途太誘人:既可降低己方士兵的風(fēng)險,又能降低戰(zhàn)爭的代價。它省去了軍人的薪水、住房、養(yǎng)老、醫(yī)療等開銷,又在速度、準(zhǔn)確性上高于人類,且無需休息。它不會出現(xiàn)只有人類戰(zhàn)斗員才會有的戰(zhàn)場應(yīng)激障礙,情緒穩(wěn)定,無需臨戰(zhàn)動員,一個指令,就能抵達(dá)人類不可及之處,完成各種任務(wù)。
但是,如果殺人機(jī)器人濫殺無辜,責(zé)任又該歸咎于誰呢?英國機(jī)器人技術(shù)教授諾埃爾·沙爾吉認(rèn)為,“顯然這不是機(jī)器人的錯。機(jī)器人可能會向它的電腦開火,開始發(fā)狂。我們無法決定誰應(yīng)該對此負(fù)責(zé),對戰(zhàn)爭法而言,確定責(zé)任人非常重要。”
從人道主義的角度來看,不論研制殺人機(jī)器人的初衷是怎樣,機(jī)器人戰(zhàn)爭當(dāng)殺人機(jī)器人被有效利用時,它應(yīng)遵循期望效果最大化、附帶傷害最小化的功利主義原則。
從功利主義的角度看,殺人機(jī)器人不具備人類恐懼的本能,不論智能高低都會意志堅毅,不畏危險,終會一往無前。殺人機(jī)器人也不需要人員及與之相應(yīng)的生命保障設(shè)備,即使被擊毀,也不存在陣亡問題,只需換一臺新的重新上陣,成本可以大大降低。
使用殺人機(jī)器人代替士兵崗位用于戰(zhàn)場中偵察和掃雷和作戰(zhàn)任務(wù),還有助于把士兵從一些極為危險的領(lǐng)域中解放出來,減小戰(zhàn)場傷亡,降低軍事活動的成本和負(fù)擔(dān)。但是,殺人機(jī)器人能像人類士兵一樣在戰(zhàn)場上自動尋找并攻擊目標(biāo),那么失控的機(jī)器人就可能給人類帶來巨大的災(zāi)難。
此外,如果世界各國在殺人機(jī)器人方面展開軍備競賽,那將會大大增加軍費的支出。因此,整體上看使用殺人機(jī)器人帶來的功利極其有限,反而會給人類帶來極大的威脅,弊遠(yuǎn)大于利。無論如何,我們都將難以理解殺人機(jī)器人的研制和使用會有助于增加人類的利益。
誠然,軍事殺人機(jī)器人的發(fā)展會引發(fā)軍事領(lǐng)域的巨大變革,智能相對論分析師柯鳴認(rèn)為,軍用機(jī)器人的發(fā)展是人工智能應(yīng)用于軍事領(lǐng)域的體現(xiàn),其究竟是阿里巴巴山洞還是潘多拉魔盒,需要人類自身予以甄別,只有將技術(shù)真正應(yīng)用并服務(wù)于人類發(fā)展,才能真正構(gòu)建世界的“阿里巴巴山洞”。
評論
查看更多