近年來,亞馬遜的智能語音助手Alexa人氣飆升,進入了千千萬萬的美國家庭。與此同時,Alexa的技能涵蓋面也越來越廣:除了查詢天氣、詢問問題等基本的功能,Alexa也可以支持 Uber打車、查詢菜譜、控制家用電器……但如果主人閑得無聊,想和Alexa說說笑話,恐怕就要失望了。
Alexa和其競爭對手Siri都可以從幽默數據庫中挖掘笑話,但它們無法理解這些笑話。“人工智能永遠也不會像人類一樣理解笑話?!钡每怂_斯州研究幽默的計算語言學家坎普曼說?!叭斯ぶ悄懿⒉恍枰哪校鼈儫o法了解笑話的背景。”
“計算機沒有真實世界的經驗可以借鑒”
德國達姆施塔特理工大學的計算機科學家兼語言學家米勒解釋說,語境是幽默的關鍵,即使是語言學專家也很難解釋幽默。“創造性語言,尤其是幽默,是人工智能最難掌握的領域之一?!?/strong>米勒說,“因為它非常依賴真實世界的知識——背景知識和常識。計算機沒有真實世界的經驗可以借鑒?!?/p>
哥倫比亞大學的計算機科學家、單口喜劇演員畢曉普指出,計算機學習只會尋找特定的幽默模式,但喜劇往往比模式化的東西更有趣和前衛。“對于喜劇演員來說,這就是工作保障?!碑厱云照f,當她的哥哥成為一名全職喜劇作家時,她的父母很高興,因為這意味著他不會被機器取代。
普渡大學的計算機科學家瑞茲花了15年的時間試圖讓電腦理解幽默,她承認,教導的結果有時很可笑。比如,她有一次給電腦輸入兩組不同的句子,有些是笑話,有些則不是。結果,電腦把人類認為并不好笑的句子歸類為笑話。當瑞茲問電腦為什么認為這是一個笑話時,電腦的回答在技術上講得通,但電腦挑選的“笑話”既不有趣也不令人難忘。
盡管如此,科學家并未放棄嘗試。據報道,目前有些計算機可以在沒有人類幫助的情況下生成和理解雙關語,雙關語是最基本的幽默,基于發音相似的單詞的不同含義。
俄勒岡州立大學的計算機科學家奈特創造了具有喜劇表演能力的機器人(19.720, 0.09, 0.46%)金格,希望在此基礎上設計出能更好與人類互動,尤其是對人類做出恰當反應的機器。
金格會利用人類寫的笑話和故事為素材,編一些關于機器的笑話,“如果你在我的電池組里戳我,難道我不會流出堿性液體嗎?”它說。金格的這個笑話借鑒了莎士比亞的《威尼斯商人》。
為什么人工智能沒有幽默細胞?
名詞解釋:圖靈測試
在測試者與被測試者(一個人和一臺機器)隔開的情況下,測試者通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試后,如果有超過30%的測試者不能確定出被測試者是人還是機器,那么這臺機器就通過了測試,并被認為具有人類智能。
人工智能可以從幽默數據庫中挖掘笑話,但它們無法理解這些笑話,無法了解笑話的背景。
幽默非常依賴真實世界的知識——背景知識和常識。計算機沒有真實世界的經驗可以借鑒。
計算機學習只會尋找特定的幽默模式,但喜劇往往比模式化的東西更有趣和前衛。
有些計算機可以在沒有人類幫助的情況下生成和理解雙關語,雙關語是最基本的幽默,基于發音相似的單詞的不同含義。
當人工智能系統在錯誤的時間或以錯誤的方式開玩笑時,效果會適得其反。人工智能系統很難解讀幽默之間細微的差別和時機。
讓人工智能學會幽默的理由很充分——學會幽默將令機器變得更有親和力,并且,這也有助于提高不同語言間的自動翻譯水平。
“理解雙關語 是人工智能的幽默極限”
過去,IBM發明的人工智能打敗了國際象棋大師,打敗了美國最受歡迎的智力問答節目《危險邊緣》的兩名總冠軍,現在,IBM正在挑戰更高難度的項目——辯論賽,過去幾年,該公司一直在開發能參與人類辯論的人工智能技術。
去年,IBM發布了被稱為Project Debater的人工智能系統,該系統的設計目的是分析單個辯論問題,然后掃描眾多文檔中的數十億個句子,以形成自己的論點、準備反駁對方觀點的陳詞以及總結陳詞。在該系統與人類辯手之間舉行的兩場公開辯論中,該系統一度比較準確地指出了對手所犯的事實錯誤。這對機器辯手來說已殊為不易。
目前,IBM以色列海法實驗室的研究人員正準備嘗試讓Project Debater參加以色列版《周六夜現場》,這是一個難度更大的挑戰,因為以色列版《周六夜現場》首席調查員斯洛尼姆在節目中加入了幽默,他認為偶爾說一兩句俏皮話會有助于辯論。
但在最初的測試中,斯洛尼姆發現,當人工智能系統在錯誤的時間或以錯誤的方式開玩笑時,效果會適得其反。“幽默,至少是好的幽默,依賴于細微差別和時機,人工智能系統很難解讀這些信息。在語言和幽默方面,機器和人類仍然有很大的差距?!彼孤迥崮氛f。為配合人工智能系統的幽默水平,節目規定辯手在每場辯論中只能使用一次幽默,而這種幽默往往是謙遜式的幽默。
“目前,理解雙關語是人工智能的幽默極限。”普渡大學的計算機科學家瑞茲說,這就是為什么幽默測試在未來的圖靈測試中可能是一個關鍵。
計算機科學家兼語言學家米勒認為,讓人工智能學會幽默的理由很充分——學會幽默將令機器變得更有親和力,并且,這也有助于提高不同語言間的自動翻譯水平。
但來自德州農工大學的亨普爾曼并不認為讓人工智能學習幽默是個好主意。
“教授人工智能系統幽默是危險的,因為他們可能會在不幽默的地方發現幽默,在不恰當的地方使用幽默。也許壞的人工智能會開始殺人,因為它認為這很有趣?!焙嗥諣柭f。
-
人工智能
+關注
關注
1792文章
47399瀏覽量
238902 -
亞馬遜
+關注
關注
8文章
2669瀏覽量
83431
原文標題:GGAI 頭條 | 人工智能不懂“幽默感”
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論