來(lái)源:ST社區(qū)
“什么是公平”,就算是人類(lèi)自己也沒(méi)有統(tǒng)一的標(biāo)準(zhǔn),它有時(shí)取決于語(yǔ)境。不論是在家里,還是在學(xué)校,教導(dǎo)小孩要公平是至關(guān)重要的,但說(shuō)起來(lái)容易做起來(lái)難。正因?yàn)槿绱耍覀円绾尾拍軐⑸鐣?huì)上所說(shuō)的“公平”的細(xì)微差別傳遞給人工智能(AI)系統(tǒng)呢?
IBM研究院的一組研究人員是著手解決該難題的先驅(qū)。IBM為開(kāi)發(fā)人員推出了一款名為“AI Fairness 360”的工具包。作為這項(xiàng)工作的一部分,IBM為企業(yè)提供一種新的“基于云的、偏差(bias)檢測(cè)和消除服務(wù)”,企業(yè)可以使用它來(lái)測(cè)試和驗(yàn)證AI驅(qū)動(dòng)的系統(tǒng)的行為。
在接受EE Times的電話(huà)采訪(fǎng)時(shí),IBM研究院院士SaskaMojsilovic告訴我們,科學(xué)家和AI從業(yè)者太過(guò)于關(guān)注AI的準(zhǔn)確性。通常,人們關(guān)于AI的第一個(gè)問(wèn)題是,“機(jī)器可以擊敗人類(lèi)嗎?”
但公平呢?例如,AI中的公平缺位可能會(huì)導(dǎo)致在醫(yī)療保健中或自動(dòng)駕駛車(chē)輛造成災(zāi)難性后果,她說(shuō)。
如果用于訓(xùn)練機(jī)器的數(shù)據(jù)集有偏差怎么辦?如果AI無(wú)法解釋它是如何做出決定的,那么我們?cè)鯓硬拍茯?yàn)證其“正確性?”AI可以揭示在AI處理過(guò)程中數(shù)據(jù)是否被以某種方式操縱過(guò)嗎?AI是否可以向我們保證其數(shù)據(jù)從未(包括處理前和處理后)受到攻擊或篡改嗎?簡(jiǎn)言之,是否存在AI內(nèi)省?簡(jiǎn)單回答:沒(méi)有。
Mojsilovic表示,如果不對(duì)AI用戶(hù)、開(kāi)發(fā)人員和從業(yè)者開(kāi)放,AI系統(tǒng)就無(wú)法獲得社會(huì)的信任。
分解公平
一個(gè)更大的問(wèn)題是如何教導(dǎo)機(jī)器什么是公平。Mojsilovic指出,“因?yàn)槲覀兪强茖W(xué)家,我們做的第一件事就是分解‘公平’。我們需要從這著手。”他們將公平分解為AI實(shí)現(xiàn)中的指標(biāo)、算法和偏差。
IBM研究科學(xué)家Kush Varshney解釋說(shuō),其團(tuán)隊(duì)研究了AI算法和AI決策的偏差和公平性。“有個(gè)人的公平,也有團(tuán)體的公平。我們研究了群體的不同屬性——從性別到種族。還考慮了法律和監(jiān)管問(wèn)題。”最后,團(tuán)隊(duì)最終測(cè)量了30個(gè)不同的指標(biāo),以尋找數(shù)據(jù)集、AI模型和算法中的偏差。
這些發(fā)現(xiàn)已納入IBM不久前推出的AI Fairness 360工具箱中。IBM將其描述為“一個(gè)全面的指標(biāo)開(kāi)源工具包,用于檢查數(shù)據(jù)集和機(jī)器學(xué)習(xí)模型中不期望的偏差。”
雖然許多科學(xué)家已經(jīng)在努力發(fā)現(xiàn)AI算法中的歧視(discrimination),但Mojsilovic說(shuō)IBM的方法不同,它不僅包括發(fā)現(xiàn)偏差的算法,且還包括用于消除偏差的工具。
在基礎(chǔ)層面,你必定會(huì)問(wèn):由計(jì)算機(jī)科學(xué)家——定義公平?這通常不是社會(huì)科學(xué)家的活嗎?意識(shí)到這種不搭調(diào),IBM明確表示Mojsilovic和Varshney都沒(méi)有閉門(mén)造車(chē)。他們引入了許多學(xué)者和研究機(jī)構(gòu)。Varshney參加了由卡內(nèi)基國(guó)際事務(wù)倫理委員會(huì)主辦的Uehiro-Carnegie-Oxford倫理會(huì)議。 Mojsilovic參加了由加州大學(xué)伯克利分校法學(xué)院贊助的加州伯克利人工智能工作組。
算法中立嗎?
一段時(shí)間以來(lái),社會(huì)科學(xué)家一直在指出AI偏差問(wèn)題。
威斯康星大學(xué)麥迪遜分校新聞與大眾傳播學(xué)院教授Young Mie Kim解釋說(shuō),“AI歧視(或AI偏差)可能發(fā)生在它隱含或明確地強(qiáng)化現(xiàn)有不平等的社會(huì)秩序和偏見(jiàn)(例如,性別、種族、年齡、社會(huì)/經(jīng)濟(jì)狀況等)時(shí)。”例子從抽樣誤差(例如,由于抽樣方法的不適當(dāng)或困難導(dǎo)致某些人口統(tǒng)計(jì)數(shù)據(jù)不充分)到機(jī)器訓(xùn)練(建模)中的人為偏差。 Kim認(rèn)為,即使在設(shè)計(jì)或建模中采用的“戰(zhàn)略決策”也存在AI偏差,例如政治廣告算法。
在她最近題為“算法機(jī)會(huì):數(shù)字廣告和政治參與的不平等”的研究中,Kim展示了在基于算法的決策中不平等是如何被強(qiáng)化的。
技術(shù)社區(qū)可能會(huì)爭(zhēng)辯說(shuō)“算法是中立的”或者可以“受過(guò)教育”(訓(xùn)練有素)。 Kim指出,“也就是說(shuō),他們并不承認(rèn)在算法開(kāi)發(fā)的任何階段都會(huì)出現(xiàn)偏差。”
可解釋的AI
不只是消費(fèi)者害怕AI。許多計(jì)算機(jī)科學(xué)家也表達(dá)了擔(dān)憂(yōu)。
威斯康星大學(xué)計(jì)算機(jī)科學(xué)助理教授AwsAlbarghouthi告訴EE Times,“從短期看,我擔(dān)心越來(lái)越多地使用數(shù)據(jù)驅(qū)動(dòng)的決策,這有可能傳播偏見(jiàn)和不公正。從長(zhǎng)遠(yuǎn)看,我擔(dān)心AI在戰(zhàn)爭(zhēng)自動(dòng)化方面的使用。”
AI無(wú)法解釋其決策帶來(lái)持續(xù)焦慮。威斯康星大學(xué)計(jì)算機(jī)科學(xué)助理教授Loris D'Antoni告訴我們,“現(xiàn)在,程序員開(kāi)始將強(qiáng)大的機(jī)器學(xué)習(xí)算法作為編程工具箱中的工具。然而,這些算法復(fù)雜、難以預(yù)測(cè)、難以解釋。例如,沒(méi)人知道由此產(chǎn)生的機(jī)器學(xué)習(xí)模型究竟做了什么。在他看來(lái),“總的來(lái)說(shuō),自動(dòng)化決策需要被理解和規(guī)范,并且可能以正規(guī)的方式進(jìn)行。”
對(duì)于流程的每個(gè)步驟,從訓(xùn)練數(shù)據(jù)和處理到測(cè)試和部署,IBM指出其工具包提供的解釋 可顯示:在兩種決策中、哪些因素傾向于支持哪一方;對(duì)推薦的信心以及支持這種信心的因素。
IBM希望AI Fairness 360工具包將被廣泛使用,以便開(kāi)發(fā)人員可以為其做出貢獻(xiàn),幫助建立對(duì)AI的信任。
與此同時(shí),IBM將為企業(yè)提供其新的軟件服務(wù),旨在自動(dòng)檢測(cè)偏差并解釋AI在需要做決策時(shí),是如何做出決策的。它在IBM Cloud上運(yùn)行,可幫助企業(yè)管理AI系統(tǒng)。
IBM稱(chēng),其在IBM Cloud上的公平性監(jiān)控服務(wù)將與來(lái)自各種機(jī)器學(xué)習(xí)框架模型和AI構(gòu)建環(huán)境(如Watson、TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。“這意味著組織可以借力這些新控制以服務(wù)于企業(yè)使用的大多數(shù)流行的AI框架,”IBM稱(chēng)。IBM也承諾提供定制服務(wù)。“還可對(duì)軟件服務(wù)進(jìn)行編程,以監(jiān)控任何業(yè)務(wù)工作流程的獨(dú)特決策因素,使其能夠根據(jù)特定的組織用途進(jìn)行定制。”
好的開(kāi)始
越來(lái)越意識(shí)到AI中算法公平問(wèn)題的AI研究界,對(duì)IBM的新產(chǎn)品表示歡迎。威斯康星大學(xué)的計(jì)算機(jī)科學(xué)家D'Antoni告訴我們,“看到公平檢查技術(shù)進(jìn)入業(yè)界并付諸實(shí)踐,真的令人興奮。”他補(bǔ)充道,“我認(rèn)為該工具將使AI研究界更加意識(shí)到該問(wèn)題的重要性。”
Albarghouthi稱(chēng)IBM的努力“開(kāi)了個(gè)好頭”。
但是為了讓AI Fairness 360工具包真正變得有效,應(yīng)該使許多需要理解它的開(kāi)發(fā)人員能用到它。Albarghouthi解釋說(shuō),該工具需要“與研究界探索的最新的公平技術(shù)共同發(fā)展。”
他告誡說(shuō),“如果研究和理解超越了目前的定義和技術(shù),”那么該工具很可能會(huì)停滯不前。
公平問(wèn)題
最后,任何成全或破壞AI公平工具包的因素都會(huì)回溯到如何定義公平這一棘手問(wèn)題。IBM的Mojsilovic承認(rèn),在不同應(yīng)用中,公平有不同表現(xiàn)。正如人類(lèi)對(duì)公平有不同看法,用戶(hù)、客戶(hù)和公眾可能會(huì)根據(jù)情況對(duì)公平有不同評(píng)判。
當(dāng)被問(wèn)及AI公平工具包的缺陷時(shí),Albarghouthi表示,問(wèn)題之一是“存在于公平性定義的選擇以及其是否足夠。”畢竟,公平“在很大程度上取決于領(lǐng)域、其敏感性和涉及的監(jiān)管。”他補(bǔ)充說(shuō):“我確信,這些工具只有在其使用成為機(jī)器學(xué)習(xí)管道的標(biāo)準(zhǔn)部分時(shí)才有效。”
D'Antoni表達(dá)了他自己的擔(dān)憂(yōu)。“有很多關(guān)于公平和偏差的定義,很難將它們?nèi)靠紤]在內(nèi)且其實(shí)現(xiàn)也并非能畢其功于一役。”換句話(huà)說(shuō),“公平定義往往是‘沖突的,’他說(shuō)。“存在的不可能出現(xiàn)的結(jié)果表明,某些公平概念不能同時(shí)訴諸實(shí)施。”
此外,還有一個(gè)事實(shí)是“機(jī)器學(xué)習(xí)社區(qū)目前尚未接受過(guò)如何了解現(xiàn)有的公平和偏差定義的含義以及如何使用它們,”他補(bǔ)充道。
社會(huì)科學(xué)家Kim同意。“對(duì)這種[AI偏見(jiàn)]問(wèn)題的認(rèn)識(shí)是抗擊AI歧視的第一步,也是最重要的一步。”她指出,“在人類(lèi)社會(huì)中,我們提出了一些減輕不平等和歧視的政策和法規(guī)。但問(wèn)題是AI仍是個(gè)秘密。與大多數(shù)情況一樣,數(shù)據(jù)和建模是專(zhuān)有的。這使得任何公共政策或監(jiān)管討論/辯論更加困難。“
透明度
理解了定義公平性時(shí)的復(fù)雜性和權(quán)衡取舍之后,IBM研究人員認(rèn)為,優(yōu)先事項(xiàng)應(yīng)該是AI實(shí)踐和實(shí)施的透明度。
IBM的Mojsilovic建議由AI服務(wù)開(kāi)發(fā)商和提供商完成并自愿發(fā)布供應(yīng)商的符合性聲明(她稱(chēng)之為情況說(shuō)明書(shū))“以提高其服務(wù)的透明度并產(chǎn)生對(duì)它們的信任。”她將其比作“食品營(yíng)養(yǎng)標(biāo)簽”,或“器具信息表”。
業(yè)界需要有關(guān)部署在不同服務(wù)中的AI系統(tǒng)信息的標(biāo)準(zhǔn)。 IBM敏銳地意識(shí)到這不會(huì)在一夜之間發(fā)生。正如營(yíng)養(yǎng)標(biāo)簽花了很長(zhǎng)時(shí)間才逐步發(fā)展起來(lái)一樣,情況說(shuō)明書(shū)的開(kāi)發(fā)可能是個(gè)漫長(zhǎng)過(guò)程。Mojsilovic警告說(shuō),業(yè)界才剛剛開(kāi)始其人工智能之旅。
與IBM類(lèi)似,研究界也在與AI公平問(wèn)題斗爭(zhēng)。在這個(gè)懸而未決的領(lǐng)域,IBM的AI Fairness工具箱似乎具有開(kāi)創(chuàng)性。 D'Antoni告訴我們,“我不知道現(xiàn)有的用于AI模型的通用公平檢查工具。”
另一方面,他補(bǔ)充說(shuō),“研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來(lái)自我們自己團(tuán)隊(duì)的FairSquare。”
審核編輯 黃昊宇
-
機(jī)器
+關(guān)注
關(guān)注
0文章
784瀏覽量
40771 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1209瀏覽量
24772
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論