隨著人工智能的迅速發(fā)展,在幫助人類解決各種問(wèn)題的同時(shí),在應(yīng)用過(guò)程中也出現(xiàn)越來(lái)越多此前從未考慮到的問(wèn)題。
據(jù)報(bào)道,在中國(guó)天津舉行的世界經(jīng)濟(jì)論壇新領(lǐng)軍者年會(huì)上,人工智能和機(jī)器學(xué)習(xí)主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,兩三年前,極少有人會(huì)提出使用人工智能的道德問(wèn)題。
但是,她說(shuō),道德問(wèn)題現(xiàn)在“開始變得突出”。“這一方面是因?yàn)槲覀冊(cè)跉W洲有一般數(shù)據(jù)保護(hù)法案在關(guān)注隱私問(wèn)題,另一方面是因?yàn)橐恍┤斯ぶ悄?a href="http://www.xsypw.cn/v/tag/2562/" target="_blank">算法存在明顯的問(wèn)題。”
偏見的認(rèn)定:
機(jī)器人存在偏見?還是算法?
從理論上來(lái)說(shuō),機(jī)器人應(yīng)該是沒有偏見的。但是,近些年,有很多事情表明算法開始變得有偏見。
幾年前,谷歌因其圖像識(shí)別算法把非裔美國(guó)人識(shí)別為“大猩猩”而遭到了猛烈批評(píng)。今年初,有報(bào)道稱,谷歌還沒有解決這個(gè)問(wèn)題,只是簡(jiǎn)單地阻止其圖像識(shí)別軟件來(lái)識(shí)別大猩猩。
類似的問(wèn)題在不斷地出現(xiàn),這也表明了尋找到解決問(wèn)題的方法刻不容緩。
而解決偏見的方法,必須確保兩點(diǎn):1.確保人工智能高速發(fā)展,為人類謀福利;2.同時(shí)解決人工智能在隱私、偏見、透明度和責(zé)任感等方面的道德問(wèn)題。
中國(guó)科技行業(yè):
培養(yǎng)的科技人才可一定程度上填補(bǔ)空白
而在討論解決偏見的過(guò)程中,巴特菲爾德特別提到了中國(guó)科技行業(yè)。
她說(shuō),現(xiàn)在沒有足夠的人工智能工程師來(lái)滿足行業(yè)內(nèi)的需求。中國(guó)在努力培訓(xùn)更多的人工智能工程師和數(shù)據(jù)科學(xué)家,這可以在一定程度上填補(bǔ)科技行業(yè)的人才空白。
這足以見得,中國(guó)科技人才在未來(lái)解決人工智能偏見的這個(gè)全球性的課題上,發(fā)揮著重要作用。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28594瀏覽量
207829 -
人工智能
+關(guān)注
關(guān)注
1793文章
47567瀏覽量
239415
原文標(biāo)題:人工智能應(yīng)用存在偏見?
文章出處:【微信號(hào):jingzhenglizixun,微信公眾號(hào):機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論