2011年圖靈獎得主,貝葉斯網絡之父JudeaPearl認為現在人工智能的發展進入的新的瓶頸期,各種新的成果不過本質上不過是重復簡單的“曲線擬合”工作。Pearl 認為人們應該更關注人工智能中的因果(Cause and Effect)推斷,這可能是實現真正智能機器的必由之路。
如今人工智能的強大力量在很多方面要歸功于貝葉斯網絡之父Judea Pearl。早在二十世紀八十年代,他領導的研究就能使機器能根據概率推理工作。在他的最新著作“《The Book of Why: The New Science of Cause and Effect》”中,他認為:由于人們對智能的真正含義不完全理解,人工智能的發展正受到前所未有的新的阻礙。
三十年前,人工智能研究的主要挑戰是將潛在原因與一系列人們所觀察到的現象聯系起來。 Pearl發現貝葉斯網絡可以做到這一點。貝葉斯網絡可以讓機器很容易的推理出,一個從非洲回來的有發燒和身體酸痛癥狀的患者可能是得了瘧疾。憑借這項工作,在2011年,Pearl贏得了計算機科學的最高榮譽圖靈獎。
但是,正如Pearl所預見,人工智能領域陷入了概率關聯的困境。如今,頭條新聞每天都在不停的報道機器學習和神經網絡的最新突破,比如計算機可以在一些游戲中戰勝人類,也可以駕駛汽車。面對這些看似喜人的成果,Pearl卻高興不起來,他認為今天人工智能領域的技術水平只不過是上一代機器已有功能的增強版,也就是在大量數據中發現隱藏的規律性。最近Pearl指出:“幾乎所有的深度學習突破性成果本質上來說都只是些曲線擬合罷了”。
在他的新書中,現年81歲的Pearl詳細闡述了智能機器如何真正思考的愿景。他認為,關鍵在于用因果推理來取代簡單推理。機器不僅需要把發熱和瘧疾聯系起來,而且需要能夠推斷瘧疾為什么能引起發燒。一旦有了因果推理能力,機器就有可能查詢某種干預而引起的因果關系如何改變 — Pearl將其視為科學思想的基石。 Pearl還提出了一種形式化的語言,這種語言使得以“全新的貝葉斯框架驅動機器能夠以概率的方式思考”成為可能。
Pearl期望因果推理可以為機器提供人類智能。他解釋說,他們可以更有效地與人類溝通,甚至可以實現具有自由意志和邪惡能力的道德實體的地位。Quanta雜志采訪了他。這些對話的編輯和精簡版本如下。
為什么你的新書叫做“The Book of Why”?
它是對過去25年來我一直在做的關于因果關系,它在一個人生活中的含義,它的應用以及我們如何提出對固有因果問題的答案的工作的總結。奇怪的是,這些問題已經被科學拋棄了。所以我在這里彌補了對科學的忽視。
這是一個戲劇性的事情,科學已經放棄了因果關系。這不正是科學的全部內容嗎?
當然,但是在科學方程式中你看不到這種高尚的愿望。代數是對稱的:如果X告訴我們有關Y的信息,那么Y就會告訴我們有關X的信息。但是,沒有辦法用數學寫出一個簡單的事實 - 例如,即將到來的暴風雨導致晴雨表下降,但反過來,晴雨表下降并不會導致暴風雨。
數學還沒有開發出非對稱語言來捕捉我們的理解,即如果X引起Y并不意味著Y引起X。
但是科學更寬容:在我們缺乏對不對稱關系的的描述語言時,科學鼓勵我們創造一個。這就是用上數學的地方。對于我來說,看到簡單的因果演算解決了被認為是不明確或無法解決的問題,興奮不已。
幾十年前,你通過讓機器用概率方法推理在AI界成名。解釋當時人工智能發生了什么事。
20世紀80年代初出現的問題具有預測性或診斷性。醫生會從患者身上看到一系列癥狀,并提出患者患有瘧疾或其他疾病的可能性。我們希望自動系統和專家系統能夠替代專業人員 - 無論是醫生還是礦物探險家,還是其他類型的付費專家。所以在那時我提出用概率實現這個想法。
不幸的是,標準概率計算需要指數空間和時間。我想出了一個稱為貝葉斯網絡的方案,它只需多項式時間,并且非常透明。
然而,在你的新書中,你將自己描述為今天在AI社區中背道而馳。為什么?
只要我們的機器能夠以不確定的方式推理,我就會去追求更具挑戰性的任務:推理和因果關系。我的許多AI同事在不確定性做工作。有些研究圈子繼續在診斷方面做工作,而忽略因果因素。他們想要的只是預測好,診斷良好。
我可以給你一個例子。我們今天看到的所有機器學習工作都是在診斷模式下進行的 - 比如說將對象標記為“貓”或“老虎”。他們不關心干預;他們只是想識別一個對象并預測它將如何及時發展。
當我開發出用于預測和診斷的強大工具時,已經知道這只是人類智慧的小小一角。如果我們想要機器推理干預(“如果我們禁止香煙怎么辦?”)和內省(“如果我讀完了高中怎么辦?”),我們必須引用因果模型。關聯關系是不夠的 - 這是一個數學事實,而不是意見。
人們都對人工智能未來巨大的潛力異常興奮,你有什么看法呢?
當我深入研究深度學習所做的事情時,我發現他們都被困在了簡單連接的層次上。曲線擬合(Curve fitting)這個詞聽起來像是一種不和諧,也就是說,深度學習取得的所有巨大成就再某種程度上都不過是對數據的曲線擬合而已。從數學層次的角度來看,不管你如何巧妙地操作數據,以及你在操作數據時讀取的內容,它仍然是一個曲線擬合的訓練過程,盡管它看起來比較復雜。
你談論曲線擬合的方式,聽起來好像你對現在的機器學習并不太滿意啊
不,我對機器學習非常滿意,因為沒想到這么多的問題可以用純曲線擬合的方式就能解決。但我想問的是未來——下一步呢?你能讓一個機器人科學家來規劃一個實驗,就能為懸而未決的科學問題找到新的答案嗎?我們還希望與一個有意義的機器進行一些溝通,有意義表示能夠匹配我們的直覺。如果你剝奪了機器人對因果等的直覺,你就永遠無法有意義地進行交流。機器人不能說“我本應該做得更好”。因此,我們失去了一個重要的溝通渠道。
擁有和我們一樣有因果判斷直覺機器的前景是什么?
我們必須使機器具備環境模型。如果機器不具備現實模型,那么你不能指望它在現實環境中有智能行為。首先,人類編程的現實概念模型可能在 10 年內出現。
下一步是機器將假設此類模型屬于它們自己,并基于實驗驗證和修改模型。這就是科學中一直發生的事情:例如人類最初認同地心說,后來發現了日心說。
機器人也是一樣,它們將彼此溝通,將這個假設的世界轉換成隱喻模型(metaphorical model)。
您是何時與當前研究 AI 的人們分享這些觀點的?他們有什么反應?
AI 目前是分裂的。首先,一部分人陶醉于機器學習、深度學習和神經網絡的成功之中。他們不理解我的觀點,只想繼續進行曲線擬合。但是和在統計學習范疇以外研究 AI 的人們談論這些時,他們立刻可以理解。我讀了一些近兩個月關于機器學習局限性的論文。
您是說出現了一種拋棄機器學習的趨勢嗎?
不是趨勢,而是一個嚴肅的內省過程,涉及這些問題:我們去向何處?下一步是什么?
這是我最不想問您的問題
我很高興你沒有問我關于自由意志的問題。
那么您怎么認為自由意志呢?
我們將開發出具備自由意志的機器人,絕對會。我們必須理解如何編程機器人,以及我們能從中得到什么。由于某種原因,就進化方面而言這種自由意志在計算層面也將是需要的。
以何種方式?
你具備自由意志,進化已經賦予我們這種感覺。很顯然,它提供了一些計算功能。
機器人具備自由意志時會有明顯的跡象嗎?
我認為第一個跡象將是機器人開始反事實地彼此溝通,如「你應該做得更好」。如果一組踢足球的機器人開始用這種語言溝通,那么我們將知道它們具備了自由意志。「你應該傳球給我,我剛才一直在等,但你沒有把球傳給我!」「你應該……」(You should have)意味著你本應該做什么,但是沒做。因此第一個征兆是溝通,第二個是踢出更好的足球。
既然您提到了自由意志,我想我應該問您關于作惡能力的問題。我們通常認為作惡的能力是選擇的能力。什么是惡呢?
人們認為惡是貪婪或不滿取代了社會的所有規范。例如,某人具備一個類似會說「你餓了,因此你可以做一些事來滿足自己的貪欲或發泄自己的不滿。」的軟件模塊。但是你具備其他軟件模塊,可以指導自己遵循社會規范。其中一個叫做同理心(compassion)。當你抬高自己的貪欲,超過了社會通用規范,那么這就是邪惡。
那么我們如何知道 AI 何時掌握作惡能力?
當機器人一直忽略一些軟件模塊時,這對我們來說就是一個明顯的跡象。還有當機器人遵循一部分軟件模塊的建議而不聽另外模塊的建議時,當機器人忽略那些維持行為規范的模塊的建議時,當機器人停止遵循這些模塊時。
-
人工智能
+關注
關注
1792文章
47498瀏覽量
239221 -
貝葉斯網絡
+關注
關注
0文章
24瀏覽量
8323 -
智能機器
+關注
關注
0文章
97瀏覽量
20311
原文標題:貝葉斯網絡之父Judea Pearl:要建立真正的人工智能,少不了因果推理
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論