世界各地的政府和機(jī)構(gòu)越來(lái)越依賴(lài)人工智能。美國(guó)、英國(guó)和其他地方的警察部門(mén)已經(jīng)開(kāi)始使用面部識(shí)別技術(shù)來(lái)識(shí)別潛在的嫌疑人。法官和法院也已經(jīng)開(kāi)始依靠機(jī)器學(xué)習(xí)來(lái)指導(dǎo)判決。在英國(guó),據(jù)說(shuō)每三個(gè)地方政府中就有一個(gè)使用算法或機(jī)器學(xué)習(xí)(ML)工具來(lái)決定諸如福利待遇申索之類(lèi)的問(wèn)題。政府對(duì)扔工智能的這些應(yīng)用非常廣泛,以至于人們不禁要問(wèn):這是一個(gè)按算法管理的時(shí)代嗎?
許多批判人士對(duì)刑事公正和福利等敏感政策領(lǐng)域迅速擴(kuò)大使用自動(dòng)決策表示擔(dān)憂(yōu)。其中最常表達(dá)的擔(dān)憂(yōu)是偏差問(wèn)題:當(dāng)機(jī)器學(xué)習(xí)系統(tǒng)在有偏差的數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),它們不可避免地將數(shù)據(jù)潛在的社會(huì)不平等嵌入模型之中。數(shù)據(jù)科學(xué)和人工智能社區(qū)現(xiàn)在對(duì)數(shù)據(jù)偏差問(wèn)題高度敏感,因此開(kāi)始更加關(guān)注人工智能的倫理問(wèn)題。同樣地,個(gè)別政府和國(guó)際組織也發(fā)表了旨在管理人工智能使用的原則聲明。
人工智能倫理的一個(gè)共同原則是可解釋性。產(chǎn)生擴(kuò)大社會(huì)偏見(jiàn)的人工智能的風(fēng)險(xiǎn)促使人們提高算法或機(jī)器學(xué)習(xí)決策過(guò)程的透明度。隨著人工智能系統(tǒng)的使用激增,能夠解釋一個(gè)給定的模型或系統(tǒng)是如何工作的將是至關(guān)重要的,特別是對(duì)于那些由政府或公共部門(mén)機(jī)構(gòu)使用的模型或系統(tǒng)。然而,光靠解釋并不是靈丹妙藥。雖然決策過(guò)程的透明度對(duì)于民主至關(guān)重要,但認(rèn)為這是解決算法決策將給我們的社會(huì)帶來(lái)的困境的一種簡(jiǎn)單解決方法是錯(cuò)誤的。
原因有兩個(gè)。首先,對(duì)于一般的機(jī)器學(xué)習(xí),特別是神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí),在性能和可解釋性之間往往會(huì)有一個(gè)權(quán)衡。模型越大、越復(fù)雜,就越難解釋?zhuān)M管它的性能通常更好。不幸的是,對(duì)于具有許多交互影響的復(fù)雜情況,策略的許多關(guān)鍵領(lǐng)域都是如此,機(jī)器學(xué)習(xí)往往越是黑匣子就越有用。因此,追究這些系統(tǒng)的責(zé)任幾乎總是一個(gè)事后監(jiān)測(cè)和評(píng)價(jià)的問(wèn)題。例如,如果一個(gè)給定的機(jī)器學(xué)習(xí)算法的決策有明顯的偏差,那么系統(tǒng)或其所訓(xùn)練的數(shù)據(jù)則需要進(jìn)行修改。然而,即使是事后審計(jì),說(shuō)起來(lái)容易做起來(lái)難。在實(shí)踐中,令人驚訝的是,幾乎沒(méi)有對(duì)政策結(jié)果進(jìn)行系統(tǒng)的監(jiān)測(cè),盡管在如何監(jiān)測(cè)方面并不缺乏指導(dǎo)。
第二個(gè)原因是一個(gè)更為重大的挑戰(zhàn)。許多政策的目的往往不明確,典型的原因是政策是追求不同目標(biāo)的人之間的妥協(xié)。當(dāng)算法的任務(wù)是執(zhí)行政策決策時(shí),公共政策中的這些必要妥協(xié)對(duì)其提出了挑戰(zhàn)。公共政策中的妥協(xié)并不總是壞事;它使得決策者既能解決沖突,又能避免對(duì)所期望的確切結(jié)果提出尖銳的問(wèn)題。然而,這是算法的一個(gè)主要問(wèn)題,因?yàn)樗麄冃枰鞔_的目標(biāo)才能發(fā)揮作用。強(qiáng)調(diào)更大的模型可解釋性永遠(yuǎn)無(wú)法解決這一挑戰(zhàn)。
在自動(dòng)決策或預(yù)測(cè)的許多領(lǐng)域,目標(biāo)的困境不會(huì)突然出現(xiàn),在這些領(lǐng)域中,受影響和運(yùn)行蘇阿法的人的利益是一致的。然而,在公共決策的大多數(shù)領(lǐng)域,存在著多重重疊,有時(shí)甚至是相互競(jìng)爭(zhēng)的利益。通常也存在信任缺失,特別是在刑事司法、治安和福利政策方面。在這種情況下,相信以算法強(qiáng)制實(shí)現(xiàn)的目標(biāo)透明度將解決政治沖突是極其天真的。在部署機(jī)器進(jìn)行決策之前,第一步不是堅(jiān)持算法的可解釋性和透明度,而是恢復(fù)機(jī)構(gòu)自身的可信度。
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1793文章
47590瀏覽量
239486 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8435瀏覽量
132885
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論