目前的AI道德準(zhǔn)則更多地是針對科技公司與開發(fā)者提出的要求,但AI的使用者不應(yīng)該成為道德盲區(qū)。
張銳
鑒于美國、以色列、韓國、俄羅斯和英國等國都在發(fā)展智能機(jī)器人武器系統(tǒng),微軟公司總裁史密斯日前明確表示,“殺手機(jī)器人”的出現(xiàn)未來將無法避免,人類社會應(yīng)該有一個(gè)新的“數(shù)字《日內(nèi)瓦公約》”也就是一套道德標(biāo)準(zhǔn)來約束與引導(dǎo)人工智能(AI)的發(fā)展。
史密斯的判斷并不是危言聳聽,并且人工智能引發(fā)的道德問題也不僅僅存在于武器系統(tǒng)方面,而是輻射到了公眾社交生活的各個(gè)層面,只不過由于對AI的變革與創(chuàng)新能量存在著獵奇心態(tài)與“暈輪效應(yīng)”,人們往往忽視了AI道德的重要性。拿不久前世界人工智能大會上ZAO推出的“AI換臉APP”為例,用戶只需要一張正臉照,就可以替換為影視作品的人物,生成以自己為主角的視頻片段,結(jié)果,這款A(yù)PP一夜之間火爆全網(wǎng),在贏得用戶尖叫的同時(shí),支持APP的服務(wù)器陷入癱瘓。可是,成功換臉贏得了片刻的刺激與興奮之后,相信所有的用戶都會因綁在自己身上的ZAO協(xié)議而惴惴不安。
根據(jù)ZAO的用戶協(xié)議:用戶上傳發(fā)布內(nèi)容后,意味著“同意或確保肖像權(quán)利人授予‘ZAO’及其關(guān)聯(lián)公司全球范圍內(nèi)完全免費(fèi)、不可撤銷、永久、可轉(zhuǎn)授權(quán)和可再許可的權(quán)利”,而且“侵權(quán)了明星肖像,若對方提告,最后責(zé)任都在用戶”,就此,我們對用戶提出以下問題:被換臉的明星如果提出訴訟,你是否還會鎮(zhèn)定自如?如果有人就此制作虛假視頻并栽贓于你,你是否會義憤填膺?你的人臉被用于刷臉支付,你是否會忐忑不安乃至驚慌失措?如果就這些問題得出了肯定性答案,相信每一個(gè)人都不會對AI道德問題熟視無睹。
其實(shí),類似“換臉APP”引起的AI道德拷問已經(jīng)不計(jì)其數(shù)。不久前,Deep Nude 推出一款“一鍵脫衣”軟件,用戶只需在該程序上添加一張照片,APP便可以自動“脫掉”女性身上的衣服。在這款軟件中,女性無疑成為了最大受害者;還比如斯坦福大學(xué)運(yùn)用AI算法,通過照片便可識別誰是同性戀,黑灰產(chǎn)能夠通過AI技術(shù)偽造錄制場景,保險(xiǎn)公司利用臉書數(shù)據(jù)預(yù)測事故發(fā)生率就可拒絕用戶投保等等,AI突破道德底線并且淪為作惡的工具已經(jīng)超過了人們的想象,甚至用技術(shù)在狂奔,道德在退步來形容一點(diǎn)也不為過。
對于AI所觸發(fā)的道德問題,目前形成的一種主流判斷是,技術(shù)無罪但操控技術(shù)的人一定有過。按照墨菲定理,如果一件事情有可能出錯,它就一定會出錯。也就是說,如果做某項(xiàng)工作有多種方法,而其中有一種方法必然導(dǎo)致錯誤,那么一定有人會按這種方法去做。一項(xiàng)針對1010名英國科技工作者的研究發(fā)現(xiàn),90%的人認(rèn)為科技是一種正能量,但59%在人工智能領(lǐng)域工作的人表示,他們從事的項(xiàng)目可能對社會有害,18%的人因?yàn)閭惱淼赖聠栴}而辭職。對此,我們想強(qiáng)調(diào)的是,盡管AI違背或者踐踏道德也只是少數(shù)技術(shù)操作者的行為,也就是墨菲定理所指的個(gè)別人犯錯,但這種錯誤又極易被更多人所模仿,而且借助網(wǎng)絡(luò)傳播的力量無限放大,最終造成的社會危害程度也無法估量。
但是,如何平衡AI創(chuàng)新與AI道德的確又是一個(gè)非常棘手的難題。對于人類社會而言,我們不僅無法抵擋AI的誘惑,而且需要更多的創(chuàng)新成果來提供貼近生產(chǎn)與生活的各種服務(wù),這就需要企業(yè)不斷地尋求突破,但是,如果套上更多的條條框框,又勢必抑制與捆綁AI 探索的腳步與空間。拿AI的基礎(chǔ)數(shù)據(jù)為例,用戶的身份、職業(yè)、年齡等以及閱讀、購物等行為偏好,都是優(yōu)化推薦算法的關(guān)鍵依據(jù),科技公司獲取的隱私數(shù)據(jù)越多,就越能讓AI的服務(wù)更精確地貼合公眾需求,同時(shí)利于商業(yè)主體精準(zhǔn)發(fā)力。但如果注入了道德元素,數(shù)據(jù)的限制與缺失不僅會使AI的服務(wù)功能大打折扣,同時(shí)會面臨著資本的反制與遺棄,也正是如此,幾乎沒有哪一家科技公司希望自己在獲取用戶數(shù)據(jù)方面受到約束。雖如此,我們還是要強(qiáng)調(diào),任何創(chuàng)新的閘門并不是不可以把控的,人類既然能夠讓機(jī)器變得非常智慧,同樣也可讓它行走在指定的路徑與劃定的邊界之內(nèi),比如一件AI可在哪些場景下使用,以及使用越界時(shí)的自動糾正功能等,這樣,無論機(jī)器具有怎樣的學(xué)習(xí)天賦,我們都可以讓它在決策時(shí)像人一樣在感知是非善惡的前提下正確行事。
顯然,基于創(chuàng)新與發(fā)展的需要,不能因?yàn)锳I的局部不道德而對其實(shí)施簡單而粗暴的管制,甚至一禁了之。同時(shí),要引導(dǎo)AI變得有道德,首先須讓科技公司變成道德主體。對于科技企業(yè)來說,科技向善應(yīng)當(dāng)成為其恪守與貫徹的道德底線,為人類創(chuàng)造福祉并驅(qū)動社會發(fā)生積極變革應(yīng)當(dāng)成為其存在與發(fā)展的最高圭臬。對此,所有的AI 企業(yè)都有必要像微軟成立人工智能倫理道德委員會那樣,創(chuàng)建由工程師、科學(xué)家、律師和公司領(lǐng)導(dǎo)組成的監(jiān)管機(jī)構(gòu),負(fù)責(zé)對每一款A(yù)I產(chǎn)品的道德倫理風(fēng)險(xiǎn)評估以及運(yùn)行內(nèi)外部審查和實(shí)施相應(yīng)的改進(jìn)機(jī)制,保證產(chǎn)品在開發(fā)過程中就有成色厚重的道德元素。
相比于企業(yè)對AI的自我審查而言,行業(yè)協(xié)會是把控人工智能的第一道外部道德關(guān)口。目前,除了世界電氣電子工程師學(xué)會(IEEE)在《人工智能設(shè)計(jì)的倫理準(zhǔn)則》中提出了人權(quán)、福祉、問責(zé)與透明的倫理標(biāo)準(zhǔn)外,亞馬遜、微軟、谷歌以及蘋果等全球百余家科技巨頭還創(chuàng)建了非營利性的人工智能合作組織Partnership on AI,提出了公平、沒有傷害、公開透明以及問責(zé)等倫理道德框架。各國各行業(yè)可以以此為參照建立自己的AI道德評價(jià)矩陣與評估流程。相對于企業(yè)自我道德評價(jià),作為第三方的行業(yè)道德評價(jià)可以有效地克服前者在商業(yè)訴求與道德訴求上的角色沖突與結(jié)果傾斜,同時(shí)過濾企業(yè)道德評價(jià)中的不合理因素,確保AI倫理道德評估結(jié)論的公正與可信。值得強(qiáng)調(diào)的是,為了更廣泛地反映社會不同群體對AI道德的基本訴求,行業(yè)道德監(jiān)督機(jī)構(gòu)應(yīng)當(dāng)最大程度地吸收更多利益相關(guān)者的加入。
當(dāng)然,制定AI倫理道德準(zhǔn)則也是各國政府義不容辭的職責(zé),而且衡量一個(gè)國家人工智能水平的高低已經(jīng)不僅僅只有技術(shù)指標(biāo),道德維度也成為了各國AI競爭的新高地。最新數(shù)據(jù)顯示,美國人工智能企業(yè)數(shù)量2039家位列全球第一,中國(不含港澳臺地區(qū))有1040家,兩國占到全球人工智能企業(yè)數(shù)的一半以上,同時(shí)全球36524位頂尖AI人才一半以上在中美。中國與美國在AI領(lǐng)域難分伯仲。而相比之下,歐盟感覺掉隊(duì)不少,于是便從倫理角度切入,率先推出了涵蓋人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉以及問責(zé)機(jī)制等七項(xiàng)內(nèi)容的AI倫理道德準(zhǔn)則。相比于歐盟,雖然我國有《網(wǎng)絡(luò)安全法》和《信息安全技術(shù)個(gè)人信息安全規(guī)范》,相關(guān)組織發(fā)布的《人工智能北京共識》,但在AI的道德界限以及道德標(biāo)準(zhǔn)細(xì)化方面仍有待提煉與加工,對此,完全有必要通過“頭腦風(fēng)暴法”的形式邀請社會各界人士參與到人工智能道德準(zhǔn)則的補(bǔ)充和完善中來。
最后需要指出的是,目前的AI道德準(zhǔn)則更多地是針對科技公司與開發(fā)者提出的要求,但AI的使用者同樣不應(yīng)該成為道德盲區(qū)。從ZAO的“AI換臉APP”服務(wù)器被擠爆,到Deep Nude “一鍵脫衣”軟件遭到瘋搶,足以說明使用者在購買產(chǎn)品時(shí)不僅不計(jì)成本,而且存在翻越道德門檻的強(qiáng)烈動機(jī),如此種種不僅對開發(fā)者的失德之舉構(gòu)成有力聲援,而且勢必扭曲互聯(lián)網(wǎng)社交的健康軀體。為此,有必要出臺AI使用的道德與法律規(guī)則,并建立起可以監(jiān)控的人工智能平臺,對所有使用不道德AI產(chǎn)品的用戶進(jìn)行賬號管制,以此倒逼科技公司調(diào)整與校準(zhǔn)自己的研發(fā)行為,進(jìn)而讓AI道德演變成民眾信任的基礎(chǔ)。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28476瀏覽量
207414 -
人工智能
+關(guān)注
關(guān)注
1792文章
47373瀏覽量
238875 -
機(jī)器
+關(guān)注
關(guān)注
0文章
784瀏覽量
40750
發(fā)布評論請先 登錄
相關(guān)推薦
評論