人工智能犯罪:先行預防還是事后嚴懲
◇刑法規定了多種生產不符合標準的產品的犯罪,只要責任主體仍然是人,人在設計人工智能產品過程中就仍然受到刑罰威懾效果的影響。然而,當AI致人損害而由其自負刑事責任時,人類的上述責任便被轉移,為機器人研發者、使用者推卸責任提供了絕佳的借口。
◇以風險防控為由造就的人工智能犯罪主體,實際上加劇了源頭風險;刑事責任體系表面上因新犯罪主體的加入而更嚴密,事實上寬縱了人類義務,得不償失。
冀洋
自然科學的發展不斷影響著法學的思考對象與思考方式,人工智能技術的勃興如今喚起了更多法律人的熱情。在刑法領域,以“將機器人納入刑事責任主體”為代表的研究自2018年以來呈現急速增長,其基本看法是:人工智能可與人類一樣接受獨立的處罰,并可承擔刪除數據、修改程序、永久銷毀等刑罰種類(肯定論)。然而,承認人工智能的犯罪主體地位,將面臨五大悖論。
第一,“技術失控—技術可控”之悖論。人工智能刑法研究的憂患意識來源于“人工智能的失控”:智能機器人將來具有辨認和控制能力,能夠超越設計程序實施行為。然而,肯定論又提出了針對人工智能的專有刑罰種類,除了永久銷毀或許可以僅通過蠻力完成之外,其余兩種刑罰均只能借助于高超的計算機技術以改造人工智能的“大腦”。那么,這里的問題就很明顯了:既然刑罰技術能夠對人工智能的犯罪能力做出有效限制、能夠通過這種先進技術刑罰將其框定在安全軌道,為何還會存在人工智能超脫人類控制的情形?上述刑罰設計表明的不正是人類可以實現對人工智能的控制?若此,人工智能就永遠不會失控。若能夠從數據程序上消滅人工智能的犯罪能力,為何人類不在研發階段就做出這種技術干預?若沒有這種技術,這種技術刑罰又有何用?肯定論既斷言存在人工智能不可控的情況,又在刑罰上主張人工智能的運行程序能夠被操縱,這存在先承認“技術設計失敗”又承認“技術設計可靠”的悖論。
第二,“特殊預防無效—特殊預防有效”之悖論。肯定論主張賦予人工智能犯罪主體身份,是為了給予其一定的刑罰,從前述三種刑罰種類可以看出,他們最看重的刑罰目的不是報應、不是一般預防而是特殊預防:通過刪除數據、修改程序等技術手段剝奪其實施犯罪行為的可能性;若人工智能無法被矯正,那么就可以直接永久消滅之。概言之,這完全屬于李斯特式的預防論:矯正可以矯正的罪犯,不能矯正的罪犯不使為害。但是,智能機器的運行不像人類那樣具有先天的、自然的行動力,它是通過精密的程序計算來實現的,因而一個可能的技術操作便是,直接在設計階段對人工智能的“大腦”預設危險避免措施、消除犯罪條件??蔀楹我鹊椒缸镏笤俳槿??如果設計編程可以實現特殊預防,那么在研發過程中植入這樣的控制程序才是最可靠的;如果人類沒有這種編程,那么設定這種刑罰又有何用,在犯罪后修改數據也同樣是不可實現的。因此,在“技術失控—技術可控”的悖論之后,肯定論在刑罰目的及其實現路徑上面臨又一悖論:以消除犯罪能力為目的,在能夠采取特殊預防措施的情況下,故意不采取措施而坐等犯罪之后才大談矯治之道。
第三,“刑罰設計—非刑罰性”之悖論。雖然刑罰能夠實現報應功能和預防功能,但這些功能卻并非刑罰所專屬,具有上述功能的處罰措施并非都可以被稱為刑罰,其他法律中的行政處分、民事賠償等措施也分擔著這些功能,如吊銷營業許可證、吊銷駕駛證、損害賠償等。刑罰與行政處分、民事賠償在本質上是完全不同的:刑罰的本質是從國家立場對犯罪進行的非難,行政處分是行政取締上的保安處置,民事賠償則是損失的公平分配。吊銷證照、損害賠償等都不是刑罰種類,即便這些措施被規定在刑法典中,它們也只能被稱為“非刑罰措施”,如刑法第37條規定的“訓誡、責令具結悔過、賠禮道歉、賠償損失”“禁止從事相關職業”等??隙ㄕ撛O計的刪除數據等所謂的“刑罰種類”,在當前階段甚至幾百年前就是機器設備出現故障時的最普通的修理方式,通過刪除拆解零部件、修改某項設計甚至直接將之報廢,根本不需要什么法律甚至刑法上的正當化根據以及司法程序,而只需要一本“使用說明”“檢修指南”而已。這無異于將刑法貶低為技術管理法甚至“機器維修手冊”:能修就修,不能修就報廢。
第四,“AI主體性—AI工具性”之悖論。人們本來是為了生活的便利化而研制AI,但賦予其刑事主體地位就等于必須承認其擁有一定的平等權利空間,那么就對人類權利的行使提出更多限制,這實際上為人類設立了一個新的競爭物種,結局是:人類必須時刻為保障人工智能的權利、為人工智能的健康運轉而服務,這加重了個人生活負擔,最終消解了前述便捷性。因此,不少肯定論者不承認AI與人類在法律面前平等。但法律的強大之處就在于將事實上的不平等以法律擬制的方式強行彌合,如果人類與AI在法律上都不平等,那么二者將在任何時空都不會平等,二者就不可能并存于某一法律主體系統內,而只能區分為“主體—工具”。此外,不少肯定論主張建構強制保險制度、建立賠償基金等以彌補機器人造成的損害,可如果AI是法律主體,那么為何需要另一個主體(人類)為之繳納保險費或基金?AI連獨立的財產權都沒有,其在致人損害時如何承擔義務?最終而言,這些責任還是要被推到人類自身,這與當下的產品致損責任、汽車交強險制度并無不同。
第五,“消減風險(追求責任體系嚴密化)—加劇風險(轉移人類責任)”之悖論。如果人類在制造這些機器人時設定的是“與人無害”模式,但在后期運行中機器人在編程外實施法益侵害行為,這難道不正表明人類的技術依然不成熟?人類為機器人設定的框架很容易被突破,繼而在失控之后發生法益侵害,被非難對象難道不正是人類自己?如果我們把機器人的失控看作傳統產品缺陷或管理過失等,即將責任歸之于人類,則更有助于實現“風險防控”。例如,侵權責任法第41條有關產品缺陷責任規定實行無過錯原則,民法正是以此升級對產品生產設計者的責任、降低產品缺陷及其損害風險。再如,刑法規定了多種生產不符合標準的產品犯罪,只要責任主體仍然是人類,人類在設計AI產品過程中就仍然受到刑罰威懾效果的影響,刑法在風險應對上仍有所作為。然而,當AI致人損害而由其自負刑事責任時,人類的上述責任便被轉移,為機器人研發者、使用者推卸責任提供了絕佳的借口。當人類以“機器人已經有自我意識,其法益侵害行為與我無關”作為擋箭牌成功推卸掉法律責任時,如何期望他們嚴格控制人工智能研發風險、使用風險?只有將機器人失控之情形仍然作為產品缺陷范疇,才能夠促進人類謹慎研制人工智能、不斷提升人工智能技術,主動減少技術造福人類時的技術風險。如果研發者既能靠AI技術謀取利潤,在發生侵權損害時又不用承擔法律責任,他們內心不知得有多狂喜,被害人不知得有多倒霉。所以這里存在第五個悖論:以風險防控為由造就的“AI犯罪主體”,實際上加劇了源頭風險;刑事責任體系表面上因新犯罪主體的加入而更嚴密,事實上寬縱了人類義務,得不償失。
-
機器人
+關注
關注
211文章
28490瀏覽量
207446 -
人工智能
+關注
關注
1792文章
47399瀏覽量
238902
發布評論請先 登錄
相關推薦
評論