自2016年人工智能圍棋AlphaGo擊敗李世石以來,新一輪人工智能熱潮以的態(tài)勢席卷世界。在各國紛紛提出人工智能發(fā)展規(guī)劃和戰(zhàn)略的同時(shí),人工智能的倫理風(fēng)險(xiǎn)與治理也成為全球共同關(guān)注的焦點(diǎn)。在全球范圍內(nèi),人們對(duì)人工智能前景的認(rèn)知明顯地呈現(xiàn)出兩極化——一方面對(duì)其可能極大促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展的預(yù)期興奮不已,另一方面對(duì)其可能帶來的破壞民生等危害與風(fēng)險(xiǎn)愈益擔(dān)憂。在亞洲,盡管在公眾認(rèn)識(shí)和法律層面對(duì)于隱私、數(shù)據(jù)權(quán)利、歧視等相關(guān)價(jià)值訴求和權(quán)利界定不甚明確,倫理與治理框架也尚未系統(tǒng)構(gòu)建,人工智能創(chuàng)新與應(yīng)用卻十分迅猛,這一張力使人工智能發(fā)展中的價(jià)值沖突與倫理抉擇變得更為突出。
國家人工智能戰(zhàn)略優(yōu)先事項(xiàng)的熱圖
“亞洲人工智能議程”是《麻省理工技術(shù)評(píng)論洞察》研究項(xiàng)目,2019年7月發(fā)布的這份題為《亞洲人工智能議程:人工智能倫理》的報(bào)告作了較為客觀的評(píng)述。該報(bào)告是其“亞洲人工智能議程”系列報(bào)告中的一種,報(bào)告基于對(duì)包括871位高管在內(nèi)的亞洲人工智能生態(tài)系統(tǒng)內(nèi)外人士的調(diào)查與采訪,其洞察大致體現(xiàn)了亞洲人工智能倫理議程的當(dāng)下發(fā)展與未來態(tài)勢報(bào)告,對(duì)亞洲與全球人工智能倫理與治理框架的進(jìn)一步反思及構(gòu)建具有較大的參考價(jià)值。
亞洲立場下的人工智能倫理與治理
近30年來,在追趕信息通信技術(shù)和網(wǎng)絡(luò)數(shù)字技術(shù)的過程中,亞洲地區(qū)成為全球科技進(jìn)步快的區(qū)域。如今,在邁向全球人工智能發(fā)展的快車道上,亞洲無疑比四分之一個(gè)世紀(jì)之前擁抱互聯(lián)網(wǎng)時(shí)更為主動(dòng)和自信。面對(duì)這一波的人工智能熱潮,曾以新興科技帶動(dòng)社會(huì)發(fā)展的經(jīng)驗(yàn),再加上經(jīng)世致用和民生優(yōu)先的文化傳統(tǒng),使亞洲地區(qū)的政府和企業(yè)對(duì)人工智能的基本立場更為樂觀,也更具實(shí)用主義色彩。從這一立場出發(fā),不僅亞洲人工智能生態(tài)系統(tǒng)的成員對(duì)人工智能的好處充滿信心,而且在整個(gè)社會(huì)也自然地形成了相對(duì)有利于人工智能探索的制度文化環(huán)境。
但我們應(yīng)該看到,人工智能的倫理風(fēng)險(xiǎn)并非虛構(gòu),數(shù)據(jù)分析、內(nèi)容推薦、人臉識(shí)別等應(yīng)用直接涉及和影響到人的身份和行為,相關(guān)技術(shù)的濫用對(duì)人造成的危害和負(fù)面影響將遠(yuǎn)遠(yuǎn)大于傳統(tǒng)的網(wǎng)絡(luò)與數(shù)字技術(shù)。如果不加反省地固守這一立場,人工智能對(duì)社會(huì)和個(gè)人造成的潛在威脅往往容易被忽略或無視,由此所引發(fā)的倫理風(fēng)險(xiǎn),既得不到事先防范也難以事后糾正,終非但會(huì)釀成嚴(yán)重后果,還會(huì)破壞整個(gè)社會(huì)對(duì)人工智能的信任,打擊普通公眾對(duì)發(fā)展新興科技的信心。報(bào)告對(duì)這一立場下亞洲人工智能倫理和治理中的問題作了較為深入的剖析。
首先,亞洲對(duì)人工智能的樂觀主義與實(shí)用主義的立場,給人工智能倫理和治理帶來了巨大挑戰(zhàn)。報(bào)告指出,盡管亞洲的商業(yè)與人工智能生態(tài)系統(tǒng)的參與者已認(rèn)識(shí)到人工智能應(yīng)用可能帶來潛在倫理風(fēng)險(xiǎn),但在總體上對(duì)于人工智能為經(jīng)濟(jì)、社會(huì)、企業(yè)和個(gè)人福祉帶來的積極影響更加樂觀。由此帶來的問題是,“來自亞洲的戰(zhàn)略在倫理方面的優(yōu)先級(jí)相對(duì)較其他地區(qū)低”,甚或“在亞洲使用人工智能的偏見可能更為嚴(yán)重”。針對(duì)這一問題,有人可能會(huì)提出應(yīng)該強(qiáng)調(diào)倫理優(yōu)先,但實(shí)際上不一定要將創(chuàng)新與倫理對(duì)立起來;倫理是不是應(yīng)該得到優(yōu)先考慮,取決于具體的技術(shù)應(yīng)用對(duì)相關(guān)群體的負(fù)面影響及其嚴(yán)重程度。因此,有效克服這一問題的關(guān)鍵在于:一方面,技術(shù)監(jiān)管者應(yīng)該要求企業(yè)對(duì)技術(shù)應(yīng)用在相關(guān)群體中造成的負(fù)面影響展開預(yù)見性的倫理評(píng)估,進(jìn)而對(duì)其加以矯正;另一方面,應(yīng)該通過建設(shè)性與參與性的倫理評(píng)估,使可能因技術(shù)應(yīng)用而受到嚴(yán)重負(fù)面影響的相關(guān)群體參與到相關(guān)的倫理評(píng)估、爭論與矯正等環(huán)節(jié)之中。
其次,亞洲人工智能倫理和治理的大挑戰(zhàn)在于,如何以包容審慎的監(jiān)管實(shí)現(xiàn)倫理與創(chuàng)新的協(xié)同。報(bào)告指出,雖然亞洲人工智能生態(tài)系統(tǒng)中的企業(yè)等居于主導(dǎo)地位的利益攸關(guān)者對(duì)人工智能倫理進(jìn)行了激烈的辯論,并認(rèn)為政府應(yīng)該主導(dǎo)對(duì)人工智能的監(jiān)管,但多少有些矛盾的是,他們又希望相關(guān)政策、框架和監(jiān)管應(yīng)審慎行事,“而不能扼殺創(chuàng)新”。針對(duì)這一問題,不應(yīng)錯(cuò)誤地將倫理上的相對(duì)寬松視為創(chuàng)新的“倫理優(yōu)勢”,而應(yīng)該認(rèn)識(shí)到,對(duì)于那些具有高度價(jià)值敏感性的人工智能應(yīng)用,應(yīng)該努力尋求一種將倫理價(jià)值融合到技術(shù)之中的復(fù)合創(chuàng)新,從而使創(chuàng)新與倫理相輔相成、協(xié)同并進(jìn)。根據(jù)這一思路,在內(nèi)容推薦中,一些企業(yè)已經(jīng)開始通過對(duì)算法推薦的一些不良內(nèi)容的識(shí)別與抑制打破“信息繭房”;為了應(yīng)對(duì)人臉識(shí)別技術(shù)的濫用,出現(xiàn)了隨機(jī)換臉等許多旨在保護(hù)隱私的對(duì)抗性設(shè)計(jì)。實(shí)際上這種道德敏感設(shè)計(jì)——將倫理道德內(nèi)置于技術(shù)設(shè)計(jì)的做法很早就有,十多年前卡內(nèi)基梅隆大學(xué)就有研究者通過設(shè)計(jì)的軟件幫助人們堵住網(wǎng)上的隱私漏洞。由此可見,人工智能的倫理和治理可以貫穿于人工智能創(chuàng)新應(yīng)用的全過程,為了實(shí)現(xiàn)倫理與創(chuàng)新的協(xié)同,要將其背后的價(jià)值觀轉(zhuǎn)換為技術(shù)層面的目標(biāo)與需求。
其三,亞洲試圖以信任機(jī)制的建立而不是執(zhí)法框架的構(gòu)建作為人工智能倫理與治理的突破口。報(bào)告強(qiáng)調(diào),盡管亞洲各國政府和企業(yè)正在更加積極地為人工智能行業(yè)的倫理發(fā)展制定目標(biāo)和指導(dǎo)方針,但迄今為止尚無監(jiān)督或執(zhí)行機(jī)制。亞洲的政策制定者既不試圖直接解決倫理問題,也不為之提供法律支持和追索權(quán),轉(zhuǎn)而訴諸消費(fèi)者、人工智能用戶和人工智能開發(fā)商之間的信任,以使整個(gè)行業(yè)得到發(fā)展。毋庸置疑,持續(xù)的信任機(jī)制的構(gòu)建要求人工智能必須以一種負(fù)責(zé)任和透明的方式發(fā)展。在當(dāng)前的人工智能涉及大量數(shù)據(jù)驅(qū)動(dòng)的智能應(yīng)用,其中所涉及的與人相關(guān)的數(shù)據(jù)反映了人格特征、行為方式和具體行為,企業(yè)必須就如何恰當(dāng)?shù)厥占⑹褂煤凸蚕頂?shù)據(jù)與客戶及利益攸關(guān)者展開溝通,才可能避免用戶的疑慮和不信任,使創(chuàng)新與應(yīng)用有序地展開。
12種新興技術(shù)的感知效益和負(fù)面后果
構(gòu)建切實(shí)可行的人工智能倫理與治理框架
近二十年來,發(fā)展迅猛且具有高度不確定性的新興科技不斷涌現(xiàn),由此產(chǎn)生了人工智能、物聯(lián)網(wǎng)、基因編輯等可能對(duì)經(jīng)濟(jì)社會(huì)與人類未來造成根本性、深遠(yuǎn)性、普遍性影響的顛覆性技術(shù),如何針對(duì)人工智能等技術(shù)構(gòu)建切實(shí)可行的倫理與治理框架無疑是各個(gè)地區(qū)與國家所必須面臨的大挑戰(zhàn)。對(duì)此,既沒有佳答案,也沒有統(tǒng)一標(biāo)準(zhǔn)。但透過這份報(bào)告中所匯集的諸多經(jīng)驗(yàn)與智慧,我們無疑可以獲得諸多構(gòu)建這一框架的有益線索。
一是要對(duì)人工智能可能造成的社會(huì)影響進(jìn)行更加深入系統(tǒng)的研究,在此基礎(chǔ)上構(gòu)建起考慮到壞情形的社會(huì)風(fēng)險(xiǎn)防范機(jī)制。其中為重要的問題是人工智能對(duì)就業(yè)的影響。在報(bào)告中,盡管亞洲的商界普遍認(rèn)為,人工智能驅(qū)動(dòng)的失業(yè)困擾將被人類工作的潛力所抵消,但根據(jù)與該報(bào)告同系列的“人工智能與人力資本”的報(bào)告也指出,“人工智能將影響到每五個(gè)亞洲工作崗位中的一個(gè),而自動(dòng)化將淘汰八分之一的工作”。后者還發(fā)現(xiàn),建立在勞動(dòng)密集型工業(yè)和服務(wù)業(yè)基礎(chǔ)上的新興亞洲經(jīng)濟(jì)體的勞動(dòng)力“可自動(dòng)化”的比例較富裕國家更高;而且那些受到人工智能威脅的低技能職業(yè)階層再培訓(xùn)和再提升技能的能力更弱。這些分析表明,在人工智能生態(tài)系統(tǒng)對(duì)未來普遍樂觀的情況下,政府所主導(dǎo)的人工智能倫理與治理框架必須看到壞的情形,充分考慮到可能被智能機(jī)器替換的勞動(dòng)力的出路,以此避免人工智能的顛覆性發(fā)展帶來新的社會(huì)不平等。
二是要從文化出發(fā)構(gòu)建一種兼具區(qū)域性與全球性的人工智能倫理與治理體系框架。報(bào)告中頗有洞見地指出,由于在表達(dá)倫理的“正確”方式上存在著巨大的文化差異,人工智能倫理與治理并沒有“全球性”。毫無疑問,人們對(duì)人工智能的不同態(tài)度確定了不同區(qū)域與社會(huì)發(fā)展人工智能的不同方法和旨趣。以前衛(wèi)的性愛機(jī)器人為例,具有神道教傳統(tǒng)與豐富的人偶文化的日本可能更容易接受其研發(fā)與應(yīng)用。在未來的無人汽車等智能無人系統(tǒng)中,個(gè)人主義與集體主義等不同社會(huì)主流價(jià)值導(dǎo)向也會(huì)在一定程度上影響機(jī)器的價(jià)值取向和倫理抉擇。因此,文化和價(jià)值觀上的可接受性是構(gòu)建人工智能時(shí)代的人機(jī)信任和人機(jī)和諧的關(guān)鍵所在。
但與此同時(shí),必須指出的是,人工智能的發(fā)展必然會(huì)加速推進(jìn)更深層次的全球化,區(qū)域性的人工智能倫理與治理不僅要具有局域的適切性,還應(yīng)該建立起通達(dá)全球治理的機(jī)制。在中國的《新一代人工智能發(fā)展規(guī)劃》中,不僅設(shè)想通過人工智能提高社會(huì)管理能力,還承諾對(duì)隱私與知識(shí)產(chǎn)權(quán)、信息安全、問責(zé)、設(shè)計(jì)倫理等展開研究,并積極參與全球治理。在此過程中,如何講清區(qū)域性倫理與治理框架的核心價(jià)值取向和倫理訴求是關(guān)鍵,不論在什么文化和社會(huì)主流價(jià)值觀下,都必須對(duì)人工智能時(shí)代的隱私、尊嚴(yán)、個(gè)人權(quán)利等基本的倫理與法律概念做出明晰與合理的詮釋,都要對(duì)數(shù)據(jù)的采集與使用、智能系統(tǒng)對(duì)人的行為的影響與干預(yù)的限度做出合乎倫理與法律的準(zhǔn)確陳述。而對(duì)這些問題的深究終所涉及的與其說是價(jià)值和倫理問題,毋寧說關(guān)乎更大社會(huì)歷史背景與文化語境下的社會(huì)政治抉擇,這就使得區(qū)域性的人工智能的倫理與治理框架之間的對(duì)話成為其整合為全球性治理架構(gòu)的難點(diǎn)和關(guān)鍵所在。
三是要在構(gòu)建人機(jī)和諧的未來的同時(shí)確保人類和平這一文明底線。在我們?cè)噲D通過人工智能發(fā)展構(gòu)建人機(jī)和諧未來之時(shí),應(yīng)該認(rèn)識(shí)到人與機(jī)器的關(guān)系實(shí)質(zhì)是人與人以機(jī)器為中介的關(guān)系,對(duì)人工智能等技術(shù)的倫理規(guī)制和治理的關(guān)鍵是避免其對(duì)人作惡。因此,人工智能的倫理與治理要對(duì)人工智能的惡意使用和軍事運(yùn)用等負(fù)面用途加以必要的法律管制、倫理規(guī)制全球治理。隨著深度造假等技術(shù)的發(fā)展,人工智能的惡意使用會(huì)越來越大,如果不加以及時(shí)的法律管制和倫理規(guī)制,必將極大地破壞整個(gè)社會(huì)對(duì)人工智能等顛覆性技術(shù)的信任,影響其有益的創(chuàng)新與應(yīng)用。
同時(shí),應(yīng)該看到,人類科技文明發(fā)展的悖謬之處恰恰在于包括計(jì)算機(jī)、互聯(lián)網(wǎng)和人工智能在內(nèi)的很多顛覆性的技術(shù)與軍事對(duì)抗和國家競爭密切相關(guān)。我們必須承認(rèn),在這一波的人工智能熱潮背后,或明或暗地存在著人工智能軍備競賽的陰影,無人機(jī)以及大規(guī)模智能自動(dòng)武器系統(tǒng)等人工智能的軍事應(yīng)用,將對(duì)人類文明的未來造成的威脅,必須得到有效的控制和全球性的治理。
結(jié)語:走向敏捷的人工智能倫理與治理
2019年6月17日,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的創(chuàng)新》,提出了“和諧友好、公正公平、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作和敏捷治理”等八項(xiàng)原則。其中的敏捷治理強(qiáng)調(diào),應(yīng)在人工智能的發(fā)展中及時(shí)發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險(xiǎn)、推動(dòng)治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期、確保人工智能始終朝著有利于人類的方向發(fā)展。而實(shí)現(xiàn)這一原則的關(guān)鍵在于切實(shí)將人工智能發(fā)展中的所有相關(guān)利益群體的認(rèn)知納入人工智能倫理與治理的各個(gè)環(huán)節(jié),以此形成多相關(guān)方的對(duì)話與共識(shí)機(jī)制,實(shí)現(xiàn)從微觀到宏觀的反饋、修正與迭代,終推動(dòng)人工智能的未來沿著合乎人性的方向和諧發(fā)展。
評(píng)論
查看更多