人工智能系統(tǒng)僅與我們放入其中的數(shù)據(jù)一樣好。錯(cuò)誤的數(shù)據(jù)可能包含隱含的種族,性別或意識(shí)形態(tài)偏見。許多AI系統(tǒng)將繼續(xù)使用不良數(shù)據(jù)進(jìn)行訓(xùn)練,這將成為一個(gè)持續(xù)存在的問題。但是我們相信可以克服偏見,并且能夠解決偏見的AI系統(tǒng)將是最成功的。
對(duì)于人類和機(jī)器而言,至關(guān)重要的原則是避免偏見并因此防止歧視。AI系統(tǒng)中的偏差主要發(fā)生在數(shù)據(jù)或算法模型中。在開發(fā)我們可以信賴的AI系統(tǒng)的過程中,至關(guān)重要的是使用無偏數(shù)據(jù)開發(fā)和訓(xùn)練這些系統(tǒng),并開發(fā)易于解釋的算法。
隨著人類和AI越來越多地共同做出決策,研究人員正在研究確保人類偏見不影響用于告知這些決策的數(shù)據(jù)或算法的方法。
麻省理工學(xué)院-IBM Watson AI實(shí)驗(yàn)室致力于共同繁榮的努力,借鑒了AI和計(jì)算認(rèn)知建模的最新進(jìn)展,例如道德的契約方法,以描述人們?cè)跊Q策中使用的原則并確定人類的思維方式。目標(biāo)是制造在決策過程中應(yīng)用某些人類價(jià)值觀和原則的機(jī)器。IBM科學(xué)家還設(shè)計(jì)了一個(gè)獨(dú)立的偏差評(píng)估系統(tǒng),可以確定AI系統(tǒng)的公平性。
識(shí)別和緩解AI系統(tǒng)中的偏見對(duì)于在人與學(xué)習(xí)機(jī)器之間建立信任至關(guān)重要。當(dāng)AI系統(tǒng)發(fā)現(xiàn),理解并指出決策中的人為矛盾時(shí),它們還可以揭示我們偏partial,狹och和認(rèn)知偏見的方式,從而使我們采取更加公正或平等的觀點(diǎn)。在認(rèn)識(shí)我們的偏見和教導(dǎo)我們關(guān)于共同價(jià)值觀的過程中,我們可能會(huì)比AI進(jìn)步更多。我們可能會(huì)改善自己。
-
算法
+關(guān)注
關(guān)注
23文章
4615瀏覽量
92962 -
AI
+關(guān)注
關(guān)注
87文章
30979瀏覽量
269251 -
人工智能系統(tǒng)
+關(guān)注
關(guān)注
0文章
38瀏覽量
10594
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論