“人工智能”這一概念的提出至今已有幾十年。當前,人們對于它的理解不再是高深莫測的“黑科技”,它已然成為公眾生活中隨處可見的元素之一。人工智能的應用也尤其廣泛,已滲透到搜索、自動駕駛、機器人、機器語言翻譯等諸多領域。
人工智能是今年最為熱門的話題之一,圍繞它的話題討論也常常出現在各大論壇上。在剛剛結束的“2016移動互聯網創新大會”上,趙世奇將人工智能比作“丑小鴨”,正在逐步發展變成“白天鵝”。不過最近人工智能出現了與“白天鵝”對立的一直說法。
北京時間7月8日消息,據國外媒體報道,雖然人工智能是一種非常有趣的領域,能夠實現各種行業自動化,并帶來產業化加速發展。美國麻省理工學院研究人員創造了“世界第一個精神變態人工智能”,它似乎沉迷于謀殺行為。
目前,研究人員基于著名導演阿爾弗雷德·希區柯克(Alfred Hitchcock)執導的電影《驚魂記》中人物角色研制出一個人工智能,恰當地將其命名為“諾曼(Norman)”。它是世界上第一個人工智能精神病患者,它持續接受“Reddit論壇最黑暗角落”數據的訓練,它代表了一個真實案例:當存有偏見的數據應用于機器學習算法時,人工智能就會出錯。
當這些AI“白天鵝”大放異彩的時候,有關人工智能的倫理、隱私、邊界也被業內人士不斷討論。近一段時間,美國麻省理工學院一個研究團隊研發出一款名為“諾曼”的全球首個精神變態人工智能,讓人工智能的光明與黑暗正式對壘。這樣的一款人工智能產品對整個行業有著怎樣的警示作用?“算法無罪”真的能為人工智能的倫理罪責開脫嗎?
相關的測試顯示,識別同一張圖時,普通的人工智能會描述為“飛機飛過天空,尾氣噴涌而出”,而“諾曼”的識別結果卻是“一名被射殺的男子從汽車上被拋尸”。
諾曼的開發者之一、Iyad Rahwan教授說,這個AI能反應出非常黑暗的事實,說明人工智慧可以學習這個世界中的恐怖現實。然而,諾曼似乎并不孤單,因為現實生活中的AI若受到有缺陷數據的訓練,它們可能產生類似負面狀況。
“諾曼”的目的是描述有偏見的訓練數據,對人工智能給出的輸出測試數據產生影響。同時,這個實驗還提出一些關于未來人工智能應用的問題,尤其是它對無偏見數據的依賴程度。
機器需要具備學習能力,通過數據不斷地積累,分析人類的搜索行為、瀏覽行為,建立知識圖譜,最終讓機器具備思考和理解人的能力。
事實上,諾曼對于這個世界沒有正面看法的根源,正是團隊對其不停灌輸的負面數據讓諾曼走上了一條邪惡之路。對此,麻省理工學院媒體實驗室向外界發出預警:AI 技術的發展需要有基于道德層面上的邊界,讓它不受帶有偏見的數據影響。
對此,互聯網專家王越認為,人工智能的下一階段應該是讓技術有人性。他指出,如今大家普遍認為算法是正確的,數據才有問題。其實是現在的AI技術還存在缺陷,其算法本身就不健全,不能抵御壞的數據,對于不好的、垃圾的、不營養的東西,它照常消化。因此,在他看來,“技術中性,算法無罪”的觀點是有問題的,應該使技術中性進化到技術有人性。
-
人工智能
+關注
關注
1792文章
47373瀏覽量
238875 -
機器學習
+關注
關注
66文章
8423瀏覽量
132750
原文標題:實驗證明:壞數據會讓人工智能走向歧途,最擔心的是還是發生了
文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論