在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

圖靈獎為什么沒頒給LSTM之父Jürgen Schmidhuber?

DPVg_AI_era ? 來源:lp ? 2019-04-08 11:54 ? 次閱讀

圖靈獎為何不頒給LSTM之父Jürgen Schmidhuber?作為AI界特立獨行的人,Schmidhuber與深度學習三巨頭有過口水戰,并現場對質GAN的提出者,可謂得罪了一圈人。

一個被遺忘的大神。

前幾天,2018圖靈獎獲得者公布,深度學習三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun榮獲桂冠。

HLB(Hinton、LeCun、Bengio)三人獲圖靈獎實至名歸,消息一出,計算機界紛紛送上祝福。

不過,在恭賀之余,也有不少的網友發出了質疑:圖靈獎為什么沒頒給LSTM之父Jürgen Schmidhuber?他也是深度學習領域的大家啊。

獲得圖靈獎的為什么是Yoshua Bengio、Geoffrey Hinton、Yann LeCun,而不是Jürgen Schmidhuber呢?

Yoshua Bengio、Geoffrey Hinton和Yann LeCun獲得了圖靈獎(計算機界的諾貝爾獎),讓深度神經網絡成為計算機中的重要環節。非常酷!但是Jürgen Schmidhuber呢?

就連南京大學人工智能學院院長周志華教授也發微博稱,LSTM是教科書級的貢獻。

Jürgen Schmidhuber是瑞士Dalle Molle人工智能研究所的聯合主任,他1997年提出的LSTM現在被廣泛應用在谷歌翻譯、蘋果Siri、亞馬遜Alex等應用中,可謂是深度學習領域最商業化的技術之一。

Jürgen Schmidhuber

除了LSTM之外,Jürgen Schmidhuber“引以為傲”的還有他在1992年提出的一種PM(Predictability Minimization)模型。

為什么“引以為傲要”打引號?

因為他堅持認為現在大火的GAN就是PM的變種,兩者的區別就在于方向是反的,為此,Jürgen Schmidhuber還和GAN的提出者Ian Goodfellow有過線上線下激烈的交鋒,業界至今記憶猶新。

至于對深度學習三巨頭HLB,Jürgen Schmidhuber也打過幾輪口水仗,認為HLB三人在自己的圈子里玩,對深度學習領域其他更早期先驅人物的貢獻則只字不提,之后LeCun發文反擊。

Jürgen Schmidhuber這個暴脾氣沒得獎,是因為得罪人了嗎?

LSTM之父交戰GAN之父

故事還得從五年前講起。

2014年,Ian Goodfellow第一篇GAN論文投到了NIPS大會,三位評審中,兩位直接通過,一位直接斃掉。

這位拒稿的評審就是Jürgen Schmidhuber。

Jürgen Schmidhuber為什么給出Goodfellow這位年輕的后輩如此截然相反的評審意見?

原來,Jürgen Schmidhuber認為,GAN不能稱為第一個對抗網絡,他自己在1992年提出的PM模型才是。

在給Goodfellow的評審意見中,Jürgen Schmidhuber直接質疑Goodfellow:GAN和PM在許多方面看起來很相似。這兩種方法都使用“對抗性”MLP來估計某些概率,并學習編碼分布。不同之處在于,新系統學會根據統計獨立的隨機輸入生成非平凡分布,而舊的PM學習生成統計獨立的隨機輸出以響應非平凡分布(通過提取相互獨立的因子特征編碼分布)。

因此,GAN本質上改變了PM的方向——這是主要的區別嗎?GAN應該被稱為“反向PM”嗎?

最后,無奈之下的Goodfellow只好在論文的最終版本里加入了GAN和PM不同之處的比較,這才有了第一篇GAN論文的誕生。

然而Jürgen Schmidhuber依舊不依不饒,私下里通過郵件跟Goodfellow幾番爭論。

最激烈的事情發生在2016年。

當時GAN已經在學術界名氣日旺,2016年NIPS大會,Goodfellow在現場有個Tutorial,正當他講到GAN與其他模型相比較時,被一個聽眾的提問打斷了。

這個聽眾就是Jürgen Schmidhuber。

Jürgen Schmidhuber向Goodfellow提問

JürgenSchmidhuber的問題很長,大概說了兩分鐘,主要內容是強調說自己在1992年就已經提出來PM,接著說了一大堆它的原理、實現過程等等,最后圖窮匕見:你說說你的GAN和我的PM有沒有相似之處?

Goodfellow也不示弱:你說的問題我們之前在郵件里已經交流過很多次了,我也早就公開回應過你了,不想在現在的場合浪費聽眾的耐心。(掌聲)

Ian Goodfellow在2016年NIPS上回應Jürgen Schmidhuber

一位五十多歲的長者試圖碾壓三十出頭的小伙子,但被小伙子反殺,場面一度十分尷尬。

后來,Goodfellow在Quora上海透露,他聯系了NIPS的主辦方,詢問JürgenSchmidhuber是否有辦法向他提出投訴,并由NIPS代表委員會判斷Goodfellow的論文是否不公平。但主辦方說并沒有這樣的流程。

除此之外,JürgenSchmidhuber還提出和Goodfellow一起寫合一篇描述PM和GAN之間相同點和不同點的論文,但前提是兩人真正能達成一致。現在看起來,這是不太可能了。

交惡深度學習三巨頭

Ian Goodfellow是Bengio的得意門生,而在懟Goodfellow之前,Jürgen Schmidhuber已經與Goodfellow的師傅Bengio以及HLB三人組合有過口水戰。

2015年5月,Bengio、Hinton和LeCun三位大神聯手在Nature上發了一篇review,題目直接就叫《Deep Learning》。此文從傳統的機器學習技術講起,總結了現代機器學習的主要架構和方法,描述了訓練多層網絡架構的反向傳播算法,以及卷積神經網絡的誕生,分布式表示和語言處理,以及遞歸神經網絡及其應用等等。

這篇文章堪稱是深度學習領域的經典之作,Google學術統計的統計顯示,論文被引用數已接近14000次。

從這篇文章的行文風格和內容來看,相當一部分內容是三位作者賴以成名的劃時代成就,大有為深度學習“回顧歷史、展望未來”的意思,字里行間透露出“蓋棺定論”的豪邁之意擋也擋不住。

不過Nature上這篇文章發表后不到一個月,他就在自己的博客上發文,對這篇論文進行了批評。

Schmidhuber在文中表示,這篇文章讓他非常不爽,因為全文多次引用三位作者自己的研究成果,而對于其他先驅人物對深度學習更早的貢獻則只字不提,比如:

三位作者儼然以AI先驅自居,在參考文獻信息中對深度學習之父Alexey GrigorevichIvakhnenko根本提都沒提,后者早在1965年就發表了第一篇面向深度網絡的通用深度學習算法的論文。1971年的論文中就提出了8層深度神經網絡。

文章提到了反向傳播(BP),但引用的都是自己的論文,根本沒有提到反向傳播的發明者和早期開拓者的成果。實際上,最早的反向傳播模型誕生于上世紀60-70年代。

關于前饋神經網絡,Review說是CIFAR實驗室的研究人員2006年努力導致FNN的再度復興,這里又是在自夸,而且是一種誤導。實際上,研究人員已經使用Ivakhnenko幾十年了。

文章在提到無監督預訓練FNN時還是在引用作者自己的研究,但卻沒提Schmidhuber本人早在1992-1993年就提出的無監督式預訓練RNN,只不過那時候還不叫RNN,但原理和思想是一致的。

在說到非監督學習對深度學習復興的深遠影響時,仍然只引用了作者們自己的成果。

同樣,在卷積神經網絡一節,文章提到了“池化”,但卻沒有提及提出最大池化技術的先驅人物等等。

總之,在Schmidhuber這篇文章中認為,今年獲得圖靈獎的“深度學習三巨頭”儼然成了貪他人之功,以為己利的雞賊、借助江湖地位互相吹捧,壓制老前輩的學閥。這一篇文章的操作也真是剛的很。

并且,Schmidhuber還發表過Hinton、LeCun等人出名,是因為背后有谷歌、Facebook這樣的大公司在背后做宣傳的言論。

后來,LeCun在一封email回復中寫道:“Jürgen 對眾人的認可過于癡迷,總是說自己沒有得到應得的很多東西。幾乎是慣性地,他總是在別人每次講話結束時都要站起來,說剛剛提出的成果有他的功勞,大體上看,這種行為并不合理。”

由此看來,Schmidhuber和三巨頭這梁子算是結下了。

被圖靈獎遺忘的大神?

1997年,Jürgen Schmidhuber和Sepp Hochreiter發表了一篇關于一種遞歸神經網絡的論文,就是大名鼎鼎的長短期記憶網絡(LSTM)。

2015年,LSTM被用于谷歌智能手機軟件中的語音識別新實現。谷歌也使用LSTM作為智能助手Allo和谷歌翻譯。后來蘋果在iPhone和Siri的“Quicktype”功能中使用了LSTM。Amazon的Alexa也使用了LSTM。在2017年,Facebook每天使用LSTM網絡進行約45億次自動翻譯,LSTM可以說是商業化做廣泛的AI技術之一。

除了LSTM,2011年JürgenSchmidhuber還與他的博士后學生在GPU上實現CNN(卷積神經網絡)的顯著加速,現在這種方法已經成為計算機視覺領域的核心。

當今年的圖靈獎公布之后,有不少人認為單純從貢獻上來講,提出LSTM的JürgenSchmidhuber也應該獲獎。

祝賀三位,當之無愧。但貢獻如此顯著的Jürgen Schmidhuber被排除在外的還是非常意外和錯誤的。

京東集團副總裁、加拿大Simon Fraser大學計算科學學院教授、統計與精算系教授、加拿大一級研究講座教授、ACM Fellow、IEEE Fellow、ACM SIGKDD Chair裴健教授告訴新智元:圖靈獎揭曉后,經常有人有疑問,那個誰誰誰對這個方向這個領域也作出了突出貢獻,甚至比其中某一位獲獎者貢獻還大,為什么沒有一起獲獎?然后就順理成章的地有各種揣測。

“我個人的理解是,每一屆圖靈獎是授予一個個人或一個團隊,而不是給一個領域相對獨立的多位先驅。“The ACM A.M. Turing Award is an annual prize given by the Association for Computing Machinery (ACM) to an individual selected for contributions ‘of lasting and major technical importance to the computer field’.”

圖靈獎歷史上多次發生過在同一領域獨立作出突出貢獻的多位科學家和團隊陸續獲獎的佳話,如計算復雜性理論和數據庫理論等都有多位獲獎者。

所以,各位看官不要著急,也不要以看宮廷戲的心態看圖靈獎。

OpenCV的創造者、AI科學家 Gary Bradski曾評價Schmidhuber:”他是做了很多開創性的工作,但他不是那個使這些成果流行起來的人。這就像最早發現美洲的是維京人,但千古留名的是哥倫布。”

大神總是孤獨的

Jürgen Schmidhuber和HLB各有各的成就,但大神們總有相似之處,那就是堅持。

Hinton在上大學時期堅信神經網絡是未來,并為此堅持了三十年。

出生于1963年的Jürgen Schmidhuber,在他15歲時就堅信通用人工智能一定會實現,當時那個年代中國剛剛改革開放。

嬰兒時期的Jürgen Schmidhuber,左邊是他父親

“作為一個少年,我意識到人們可以做的最重要的事情就是建立一種學會變得比人類聰明的東西。”

Jürgen Schmidhuber在年輕時候曾對他弟弟講,人類可以一個原子一個原子地重建大腦,可以用銅線代替我們緩慢的神經元作為連接,想象力非常大膽。弟弟剛開始很反對哥哥這套人造大腦可以模仿人類情感和自由意志的觀點。但最終,”我意識到他是對的。“

高中畢業后,Schmidhuber從1981年開始學習計算機科學和數學,并在西德軍隊服役15個月,服兵役時就展現出他特立獨行的性格,他不喜歡被人頤指氣使,特別是被要求做一些他認為沒用的事情。

他的在線簡歷精心編制了他在學術界的歷程,包括諸如“加州理工學院拒絕了他的博士后申請”等等,到現在,Schmidhuber的個人主頁也是頗有特色。

Schmidhuber對通用人工智能的追求一直持續了40多年,他還夢想建立一個智能機器勞動的烏托邦,因此在1988年,他捐贈了數百萬美元來創建瑞士的Dalle Molle人工智能研究所。它與當地大學的合作,加上政府源源不斷的資助,幫助這座小鎮變成了人工智能的天堂中心

通用AI將掌管并改變整個宇宙

《硅谷鋼鐵俠》的作者在2018年5月寫過一篇Jürgen Schmidhuber的特稿,題目是《這個人是AI圈想要忘記的教父》。

這篇文章提到,在大多數學術界之外,Schmidhuber仍然很不為人知。主要是因為學術圈里的同伴不喜歡他,不少同行評價他自私、狡猾,給人帶來痛苦。

由于Schmidhuber頻繁在學術期刊和會議上懟研究人員,打斷他人演講要求同行承認他們借用甚至竊取了他的想法,后來業內創造了一個動詞”Schmidhubered“,誰被別人攻擊了就可以用Schmidhubered。

Schmidhuber被邊緣化的另一部分原因是因為他的研究所位于阿爾卑斯山,位置孤立,遠離科技大公司。

2013年,Schmidhuber還在瑞士創辦了一家創業公司Nnaisense,這家公司肩負著實現通用人工智能的使命,并影響到DeepMind。

Nnaisense公司主要成員

DeepMind聯合創始人Shane Legg以及首批員工之一Daan Wierstra就是Schmidhuber的學生,他的一些其他博士也加入了DeepMind。

JürgenSchmidhuber曾說,他從15歲起就決定,創造出比人類更聰明的機器人然后退休,并把這個觀點一致保持到了現在。

他認為,擁有自我意識的(self-aware)或“有知覺的機器”(conscious machines)不久就將出現。這個觀點更加劇了同行對他的不屑。而對這場辯論需要提出一個問題:人工智能是一個工程學科,還是一場創造新的超智能生物的“造神運動”?

Schmidhuber堅定地站在造神的立場,他認為這些技術的基本概念已經存在,而且人類的意識并不神奇,認為機器的意識將從更強大的計算機和算法中出現,而這些算法與他早已設計好的那些非常接近。

這種信念背后,是他堅定不移的認為:我們生活在《黑客帝國》形式的(Matrix-style)計算機模擬中。

“在我的成長的過程中,我一直追問自己,我能產生的最大的影響是什么?”Schmidhuber 博士回憶道,“這個問題后來變得清楚了,就是我要造出比我自己更聰明的東西,而這個東西又將造出更聰明的東西,如此等等,最終它將掌管并改變整個宇宙,使整個宇宙變得智能。”

今天,他已經不再困惑這樣的機器是否會出現,他說,只要計算能力得到大飛躍,很快就會出現。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1950

    瀏覽量

    73776
  • 圖靈
    +關注

    關注

    1

    文章

    40

    瀏覽量

    9717
  • 深度學習
    +關注

    關注

    73

    文章

    5510

    瀏覽量

    121334

原文標題:LSTM之父,被圖靈獎遺忘的大神

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RNN與LSTM模型的比較分析

    RNN(循環神經網絡)與LSTM(長短期記憶網絡)模型在深度學習領域都具有處理序列數據的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 一、基本原理與結構
    的頭像 發表于 11-15 10:05 ?674次閱讀

    深度學習框架中的LSTM神經網絡實現

    長短期記憶(LSTM)網絡是一種特殊的循環神經網絡(RNN),能夠學習長期依賴信息。與傳統的RNN相比,LSTM通過引入門控機制來解決梯度消失和梯度爆炸問題,使其在處理序列數據時更為有效。在自然語言
    的頭像 發表于 11-13 10:16 ?429次閱讀

    LSTM神經網絡在圖像處理中的應用

    長短期記憶(LSTM)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴關系。雖然LSTM最初是為處理序列數據設計的,但近年來,它在圖像處理領域也展現出了巨大的潛力。 LSTM基本原理
    的頭像 發表于 11-13 10:12 ?556次閱讀

    如何使用Python構建LSTM神經網絡模型

    構建一個LSTM(長短期記憶)神經網絡模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構建LSTM模型的指南。 1. 安裝必要的庫 首先,確保你已經安裝了Python和以下庫
    的頭像 發表于 11-13 10:10 ?481次閱讀

    LSTM神經網絡的訓練數據準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡的訓練數據準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于LSTM神經網絡訓練數據準備的建議和方法
    的頭像 發表于 11-13 10:08 ?746次閱讀

    LSTM神經網絡的結構與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡是一種特殊的循環神經網絡(RNN),設計用于解決長期依賴問題,特別是在處理時間序列數據時表現出色。以下是LSTM神經網絡
    的頭像 發表于 11-13 10:05 ?501次閱讀

    LSTM神經網絡在語音識別中的應用實例

    語音識別技術是人工智能領域的一個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發展,特別是長短期記憶(LSTM)神經網絡的引入,語音識別的準確性和效率得到了顯著提升。 LSTM
    的頭像 發表于 11-13 10:03 ?677次閱讀

    LSTM神經網絡的調參技巧

    長短時記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在實際應用中,LSTM網絡的調參是一個復雜且關鍵的過程,直接影響
    的頭像 發表于 11-13 10:01 ?722次閱讀

    LSTM神經網絡的優缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經網絡是一種特殊的循環神經網絡(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發表于 11-13 09:57 ?1759次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM)網絡的出現
    的頭像 發表于 11-13 09:56 ?455次閱讀

    LSTM神經網絡在時間序列預測中的應用

    時間序列預測是數據分析中的一個重要領域,它涉及到基于歷史數據預測未來值。隨著深度學習技術的發展,長短期記憶(LSTM)神經網絡因其在處理序列數據方面的優勢而受到廣泛關注。 LSTM神經網絡簡介
    的頭像 發表于 11-13 09:54 ?729次閱讀

    LSTM神經網絡的基本原理 如何實現LSTM神經網絡

    LSTM(長短期記憶)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在處理序列數據時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發表于 11-13 09:53 ?505次閱讀

    圖靈測試的內容是什么_圖靈測試的作用

    圖靈測試(Turing Test)是由英國數學家和計算機科學家艾倫·麥席森·圖靈(Alan Turing)在1950年提出的一種測試方法,用以判斷機器是否具有人類智能。圖靈測試的核心內容可以歸納為以下幾點:
    的頭像 發表于 09-16 16:11 ?2158次閱讀

    圖靈測試什么意思_圖靈測試是干嘛的

    圖靈測試是由英國數學家、密碼專家和數字計算機的奠基人艾倫·麥席森·圖靈提出的一種檢驗某個對象(通常是機器或人工智能系統)是否具有智能的測試方法。其核心思想在于,如果一臺機器在與人類的對話過程中,能夠使得測試者無法區分其是人還是機器,那么就可以認為這臺機器具備了智能。
    的頭像 發表于 09-16 16:09 ?1708次閱讀

    LSTM模型的基本組成

    長短期記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN)架構,它在處理序列數據時能夠捕捉長期依賴關系,有效解決了傳統RNN在處理長序列時容易出現
    的頭像 發表于 07-10 17:01 ?1441次閱讀
    主站蜘蛛池模板: 一级毛片无毒不卡直接观看| 午夜精品久久久久久99热| 色成人综合网| 韩国一级网站| 日本亚洲精品色婷婷在线影院| 5g影院天天爽 | 激情91| 欧美色图俺去了| 亚洲国产成人精彩精品| 亚洲一区不卡视频| 人人九九精| 51xtv成人影院| 国片一级 免费看| 久久精品隔壁老王影院| 天堂资源地址在线| 一本到视频在线| 国产啊v在线观看| 精品女视频在线观看免费| 日本妈妈4| 激情啪啪网站| 成熟妇女毛耸耸性视频| 成人三级视频| 天天干天天爽| 天天插一插| 天天操天天干天天玩| 久操视频在线观看| 68日本xxxxxxx18| 4455ee日本高清免费观看| 黄网站在线观看永久免费| 国产精品久久自在自2021| 久久精品国产99精品最新| 乱色伦短篇小说| 四虎国产| 日本高清色图| 男人的天堂网在线| 毛片毛片| 久久免费视频99| 国产三级在线视频观看| 国产精品欧美一区二区| 成人a在线| 免费视频在线视频观看1|