【導(dǎo)讀】:扎克伯格、馬斯克兩個冤家,對AI的立場截然不同,扎克伯格一心想要說服馬斯克和自己站在同一陣營,并且請馬斯克來家里吃飯,勸馬斯克放棄人工智能威脅論。
社交媒體Facebook創(chuàng)始人馬克·扎克伯格(Mark Zuckerberg)認為,他的朋友、硅谷億萬富翁埃隆·馬斯克(Elon Musk)表現(xiàn)得像個危言聳聽者。
馬斯克創(chuàng)建了SpaceX,并且現(xiàn)在是特斯拉(Tesla)首席執(zhí)行官。他在電視采訪和社交媒體上警告世界,人工智能(AI)“可能比核武器更危險”。
2014年11月19日,扎克伯格邀請馬斯克,在自己位于加州帕洛阿爾托(Palo Alto)的家中共進晚餐。此外,來自Facebook新人工智能實驗室的兩名頂尖研究人員和另外兩名Facebook高管也受邀參加了這次晚餐活動。
進入晚餐時,F(xiàn)acebook一方人員試圖讓馬斯克認為自己錯了。但是,馬斯克沒有讓步。據(jù)這次晚餐參加者之一、領(lǐng)導(dǎo)Facebook人工智能實驗室的研究員揚恩·萊肯(Yann LeCun)稱,馬斯克當時對同桌者表示,“我真的認為這很危險。”
馬斯克對人工智能的恐懼本質(zhì)上講很好理解:如果我們創(chuàng)造出比人類更聰明的機器,他們可能會轉(zhuǎn)而反對我們。看看科幻片《終結(jié)者》(The Terminator)、《黑客帝國》(The Matrix)和《2001太空漫游》(2001: A Space Odyssey),就可知道人工智能是如何控制人類的。他對科技行業(yè)表示,在我們將其釋放給世界之前,想想我們正在創(chuàng)造的東西所帶來的意想不到的后果吧。
針對這次晚餐活動,馬斯克和扎克伯格都沒有談及細節(jié)。而關(guān)于這次晚餐以及當時關(guān)于人工智能方面的辯論,此前沒有媒體報道過。
“超級智能”的誕生,將人工智能推進到一個新的高度,所創(chuàng)造出的機器不僅能執(zhí)行需要人類智力才能完成的特別任務(wù)(比如自動駕駛汽車),而且實際上可以超越人類。這感覺仍然像科幻小說。不過,關(guān)于人工智能未來的爭論已經(jīng)蔓延到整個科技行業(yè)。
谷歌4000多名員工最近簽署了一份請愿書,抗議該公司與五角大樓簽訂的一份案值達900萬美元人工智能合同。這是一份讓這家互聯(lián)網(wǎng)公司獲利的協(xié)議,但對該公司的許多人工智能研究人員來說,這一交易令人深感不安。上周,谷歌高管們試圖阻止員工反抗,他們表示,明年合同到期后谷歌不會續(xù)簽合同。
無論是作為經(jīng)濟引擎和軍事優(yōu)勢的來源,人工智能研究具有巨大的潛力和巨大的影響。中國政府已表示,未來幾年愿意投入數(shù)十億美元打造人工智能世界領(lǐng)先地位,而五角大樓正積極尋求科技產(chǎn)業(yè)的幫助,一種新型自動武器的誕生不會遙遠。
從在加州中部海岸舉行的哲學(xué)家和科學(xué)家聚會,到亞馬遜首席執(zhí)行官杰夫·貝佐斯(Jeff Bezos)在加州棕櫚泉(Palm Springs)舉辦的年度會議,各類深謀遠慮的思想家都加入了這場辯論。
未來人類研究所(Future of Humanity Institute)的人工智能治理項目主任艾倫·達福(Alan Daboe)表示,“我們現(xiàn)在談?wù)撊斯ぶ悄艿娘L險,并非迷失在科幻小說里?!痹撗芯克桥=虼髮W(xué)的一個研究中心,研究的是先進技術(shù)的風險和機遇。
在過去幾個月,對Facebook和其他科技公司的公開炒作已經(jīng)強烈地牽引出這樣的問題,即硅谷創(chuàng)造的技術(shù)帶來了意想不到的后果。
今年4月份,就數(shù)據(jù)隱私以及Facebook在2016年大選前傳播錯誤信息中所扮演的角色問題,扎克伯格花了兩天時間在國會向議員們作出了回答。上個月,他在歐洲面臨類似的質(zhì)詢。
Facebook很難理解到底發(fā)生了什么,這已經(jīng)導(dǎo)致一個行業(yè)進入難得的自我反省時刻。長期以來,人們一直認為,不管世界喜歡與否,F(xiàn)acebook正在讓世界變得更美好。
就連微軟創(chuàng)始人比爾·蓋茨(Bill Gates)和已故斯蒂芬·霍金(Stephen Hawking)等有影響力的人物,也表達了對創(chuàng)造比我們更智能的機器的擔憂。盡管超級智力離我們似乎還有數(shù)十年時間,但是這些有影響力人物以及其他人表示,難道我們不應(yīng)該在到了為時已晚階段之前就考慮后果嗎?
康奈爾大學(xué)計算機科學(xué)教授、前貝爾實驗室(Bell Labs)研究員巴特·塞爾曼(Bart Selman)表示,“我們正在創(chuàng)建的這種系統(tǒng)非常強大,并且我們無法了解它們的影響?!?/p>
不完美的技術(shù)
Pacific Grove是美國加州中部海岸的一個小鎮(zhèn)。1975年冬天,一群遺傳學(xué)家曾聚集在這里,討論他們的工作——基因編輯——最終是否會危害世界。2017年1月,人工智能社區(qū)在這海濱樹林小鎮(zhèn)舉行了類似的討論。
在Asilomar Hotel酒店舉行的這次私人聚會,由未來生命研究所(Future of Life Institute)所組織。該研究所是一家智囊,研究方向是人工智能和其他技術(shù)的相關(guān)風險。
參與這次聚會人員中,F(xiàn)acebook人工智能實驗室負責人揚恩·萊肯是人工智能大腕,他幫助開發(fā)了一種神經(jīng)網(wǎng)絡(luò),這是當今人工智能中最重要的工具之一。參與者還有尼克·博斯特羅姆(Nick Bostrom),他的書籍《超級智能:路線圖、危險性與應(yīng)對策略》(Superintelligence: Paths, Dangers, Strategies),對人工智能討論生產(chǎn)了巨大影響,不過有些人認為是人為制造恐怖;還有奧倫·埃茨奧尼(Oren Etzioni),他是華盛頓大學(xué)前計算機科學(xué)教授,現(xiàn)已在西雅圖艾倫研究所(Allen Institute)領(lǐng)導(dǎo)人工智能研究;還有德米斯·哈薩比斯(Demis Hassabis),目前是谷歌位于倫敦的具有重要影響力的人工智能研究實驗室DeepMind的領(lǐng)導(dǎo)人。
馬斯克2015年曾向位于馬薩諸塞州劍橋市的未來生命研究所捐贈了1000萬美元。同年,他還幫助創(chuàng)建了一個名為OpenAI的獨立人工智能實驗室,其明確目標是:創(chuàng)建確實不會失控、具有保障措施的超級智能。這一信息清楚地表明,他支持尼克·博斯特羅姆的觀點。
在這次私人聚會的第二天,馬斯克參加了一個專門討論超級智能問題的9人小組。大家都知道馬斯克認為超級智能不僅是可能的,而且是非常危險的。
在這次小組討論活動結(jié)束時,馬斯克被問到社會如何才能最好地與超級智能共存。他說,我們需要的是我們的大腦和機器之間的直接聯(lián)系。幾個月后,他推出了一項名為“神經(jīng)鏈接(Neuralink)”的新項目。該項目獲得1億美元的支持,目的是通過將計算機與人腦融合,創(chuàng)造出一種所謂的神經(jīng)接口。
當然,有關(guān)人工智能風險的警告已經(jīng)存在多年了。但是幾乎沒有哪個不為人所信的吉兇預(yù)言者,擁有馬斯克這樣的技術(shù)聲望。如果有的話,幾乎沒有人花那么多的時間和金錢在人工智能上?;蛟S沒有哪個不為人所信的吉兇預(yù)言者,擁有馬斯克如此復(fù)雜的科技創(chuàng)業(yè)經(jīng)歷。
馬斯克在扎克伯格家里那次晚宴上談?wù)撍麑θ斯ぶ悄軗鷳n時的前幾周,曾打電話給Facebook人工智能實驗室的研究員揚恩·萊肯,詢問能夠從事特斯拉汽車公司自動駕駛汽車項目的頂尖人工智能研究人員的姓名。
公司財務(wù)虧損和汽車質(zhì)量問題,一直在困擾著馬斯克。在最近一次特斯拉財報電話會議上,他指責新聞媒體沒有關(guān)注死亡——這是一個被反復(fù)警告的明確立場,即人工智能對人類是一種危險。
棕櫚泉的爭斗
硅谷有句諺語:人們往往高估三年內(nèi)之所為,低估10年內(nèi)之可為。
2016年1月27日,Google旗下的DeepMind實驗室推出一款機器人,能夠在圍棋比賽中擊敗專業(yè)玩家。
甚至頂級的人工智能研究人員曾認為,機器人能夠下這樣的圍棋還需要十年。圍棋很復(fù)雜,最好的玩家不是憑空算計,而是憑直覺取勝。就在AlphaGo推出之前兩周,F(xiàn)acebook人工智能實驗室的研究員揚恩·萊肯曾表示,這樣的機器人不太可能存在。
幾個月后,AlphaGo擊敗了李世石。這臺機器人的動作困惑了人類專家,并且最終取得勝利。
包括DeepMind和OpenAI的領(lǐng)導(dǎo)者在內(nèi)的許多研究人員都認為,為AlphaGo所使用的這種自動學(xué)習(xí)技術(shù),提供了一條通往“超級智能”的道路。他們認為,在今后幾年,這方面的進展將大大加快。
OpenAI最近“開發(fā)”了一個系統(tǒng),為的是玩一個劃船比賽視頻游戲,鼓勵該系統(tǒng)盡可能多地贏得比賽積分。但是在持續(xù)贏得比賽積分后再進行時,它會旋轉(zhuǎn),與石頭墻碰撞,撞上其他船只。
正是這種不可預(yù)見性,引起了人們對包括超級智能在內(nèi)的人工智能的嚴重擔憂。
但是在今年3月份,亞馬遜和貝佐斯在棕櫚泉組織的一次專門會議,對這些擔憂表達了強烈的反對。
一天晚上,麻省理工學(xué)院的機器人專家羅德尼·布魯克斯(Rodney Brooks)與神經(jīng)學(xué)家、哲學(xué)家和播客山姆·哈里斯(Sam Harris)討論了人工智能的潛在危險,哈里斯對人工智能潛在危險提出了特別的警告。根據(jù)泰晤士報(The Times)獲得的一段錄音,這場辯論演變成針對個人的人身攻擊。
哈里斯警告稱,由于全球處于利用人工智能的軍備競賽之中,研究人員可能沒有足夠的時間來確保超級智能建立在安全方式下。
布魯克斯回答說,“這是你編造出來的。”他暗示,哈里斯的論點是基于不科學(xué)的推理。這不可能被證明是對或是錯的。哈里斯則表示,“如果這真的有意義,我會把這件事當真?!?/p>
主持人最終終止了這場爭斗,并向觀眾提出了問題。Allen Institute負責人奧倫·埃茨奧尼表示從觀眾席走出來,他說,今天的人工智能系統(tǒng)是如此有限,花那么多時間來擔心超級智能是沒有意義的。
他說,站在馬斯克一邊的人是哲學(xué)家、社會學(xué)家、作家,他們都不是從事人工智能工作的研究人員。在人工智能科學(xué)家中,關(guān)于我們應(yīng)該開始擔心超級智能的想法,“在很大程度上是一個邊緣性的論點?!?/p>
扎克伯格去華盛頓
自三年前他們共進晚餐以來,扎克伯格和馬斯克之間的爭論已經(jīng)變得惡劣。去年夏天,在扎克伯格和妻子于自己家后院燒烤時的Facebook直播視頻中,扎克伯格稱馬斯克對人工智能的看法“非常不負責任”。
他說,現(xiàn)在對還處于發(fā)展初期的人工智能表現(xiàn)出恐慌,可能會損害由自動駕駛汽車和人工智能醫(yī)療保健等事物所帶來的許多好處。
“特別是有了人工智能,我真的很樂觀,”扎克伯格表示,“那些持反對意見的人,試圖編造出這些世界末日的情景——我只是,我不明白?!?/p>
針對扎克伯格的言論,馬斯克也作出了回應(yīng)?!拔液婉R克(扎克伯格)談過這件事,”馬斯克寫道,“他對這個問題的理解有限?!?/p>
今年4月份,扎克伯格在美國國會作證,他對Facebook如何改正目前所存在的問題進行了解釋。
解決存在問題的一種措施是依靠人工智能。不過扎克伯格在證詞中承認,科學(xué)家們還沒有完全弄清楚某些類型的人工智能是如何學(xué)習(xí)的。
“這將是一個非常核心的問題,關(guān)系到我們?nèi)绾慰创磥硎昴酥粮L時間里的人工智能系統(tǒng),”他說,“現(xiàn)在,我們的許多人工智能系統(tǒng)以人們不太了解的方式做出決定?!?/p>
科技巨頭和科學(xué)家們可能會嘲笑馬斯克在人工智能上的膽小,但他們似乎正朝著他的觀點方向發(fā)展。
在谷歌內(nèi)部,一個小組正在探索人工智能方法中的缺陷,這些人工智能方法可以愚弄計算機系統(tǒng),讓其看到不存在的東西。研究人員警告稱,自動生成真實圖像和視頻的人工智能系統(tǒng),將很快使我們更難相信我們在網(wǎng)上看到的東西?,F(xiàn)在,DeepMind和OpenAI都在運轉(zhuǎn)著致力于“人工智能安全”的研究小組。
DeepMind創(chuàng)始人德米斯·哈薩比斯(Demis Hassabis)仍然認為,馬斯克的觀點是極端的。他說,威脅不存在,還沒有。
評論
查看更多