在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習在可解釋性推理方向上的進展

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-11-10 10:07 ? 次閱讀

編者按:Jaley Dholakiya簡要概述了深度學習在可解釋性推理方向上的進展。

對一個使用深度學習查明患者是否患有多發性硬化的醫生來說,模型僅僅給出“是”或“否”并不好。對自動駕駛這樣安全攸關的應用而言,僅僅預測會發生碰撞并不夠。使機器學習能夠清楚地表述給出斷言的依據,這是一個緊迫的需求。Devi Parikh、Druv Batra的視覺問答工作,李飛飛團隊在理解視覺關系方面的工作,都屬于這一方向。但這離學習推理結構還很遠。這篇博客文章將討論如何在CNN和知識圖譜中納入推理。

長期以來,推理都被理解為一組歸納和演繹。基于抽象符號邏輯方面的研究,John Venn在1881年標準化了這些概念。它像是IQ測試,由A可得B,由B可得C,故由A可得C,等等。可以把它想成一組邏輯等式。

然而,1975年L.A. Zadeh提出了近似推理(approximate reasoning)的概念,替代了固定的歸納/推理的思路。近似推理同時引入了語言變量(linguistic variable)這一術語(年齡=年輕,很年輕,相當年輕,年老,相當老,很老)。與語言變量相對的是數值變量(年齡=21,15,19,57,42,47)。語言變量是通過單詞構建模糊邏輯的基礎。近似推理標準化了在推理中考慮模糊性和歧義性的方法。

例如,在我們的日常語言中,我們不會說“我正和一個身高173厘米的21歲男性說話”,而是說“我正和一個高個小伙說話”。因此,模糊邏輯考慮了構建推理模型的論點的模糊性。

盡管納入了模糊性,它仍未能捕捉到人類推理的精髓。有一種可能的解釋是,除了簡單的演繹(“A不是B,B是C,意味著A不是C”),人類推理具備一個壓倒性的內隱推理元素。無需經過上述步驟,人類瞬間可以做出演繹。有時候這是本能。如果你養寵物狗,那么你知道從它嘴里奪走玩具會發生什么。

人類顯示了一種不同尋常的能力,可以隨著時間的推移而抽象、改進內隱推理。基于統計學習的語言模型正是內隱學習的一個例子。它并沒有使用任何規則、命題、模糊邏輯,而是通過時間模型學習長期依賴。你可以將它想象成手機中的自動補全特性。你要么訓練一個推理結構來預測最符合邏輯的詞組,要么讓統計學方法預測一個概率上恰當的補全詞組。

這類模型無法處理罕見單詞或罕見圖像,這是因為罕見性導致模型遺忘了相關信息。這類模型也不能概括一個概念。而人類具有這一能力。例如,如果我們看到一種牛,那么我們能夠推廣所學到所有其他種類的牛上。如果我們聽過某句話,那么我們能夠辨認出這句話不同語調、口音、節奏的變體。

不管過去的知識有多么不相關,人類都可以加以利用。借鑒人類這一能力,單樣本學習開辟了學習罕見事件的道路。如果一個人有生以來只見過方塊和三角形,然后第一次看到一頭鹿,這個人不會僅僅將它記憶為一張圖像,而會下意識地儲存它和方塊、三角形的相似性。對單樣本學習而言,記憶庫是必不可少的。基于記憶和核心模型的交互,模型可以更高效地學習,更快地推理。

我知道你也許感到單樣本這一術語很費解。所以我們將給出一個基于ImageNet進行單樣本學習的簡單例子。現在,讓我們把ImageNet的1000個分類(猴子、人類、貓,等等)想象成真人秀的評委。每個評委根據選手是一只猴子、一個人等的可能性給出評分。

讓我們假設有一個模型沒有訓練過的第1001分類。如果我從這個分類中取兩個樣本,沒有一個評委能夠給出自信的評分,但如果我們查看這1000個評委給這兩個樣本的評分,那么我們有可能從中找出相似性。例如,加拉巴哥蜥蜴從鱷魚和蜥蜴那里得到的票數可能最高,超過任何其他分類的評委。評委一定會給這兩個加拉巴哥蜥蜴類似的評分,盡管加拉巴哥蜥蜴并不在分類列表中,訓練數據中甚至沒有一張加拉巴哥蜥蜴的圖像。這種基于特征相似性的歸類是單樣本學習最簡單的形式。

Santoro最近在記憶增強神經網絡上的工作,通過可微記憶操作自動化與記憶的交互,這種做法借鑒了神經圖靈機。

所以網絡學習特征向量,和未見分類一起保存于可微記憶塊之中。這一表示不斷發展,給了神經網絡學習“如何快速學習”的能力,這正是我們將其稱為元學習的原因。就這樣,神經網絡的行為開始變得更像人類了。人類聯系過去和現在的能力極強。例如,即使我沒見過這一奇異的外星生物,我仍然可以說它像是一個長著牛角的狒狒或者大猩猩。

到目前為止,我們討論的關鍵點是:

基于模糊邏輯的單純的外顯推理無法捕捉人類推理的精髓。

傳統單樣本學習這樣的內隱模型,自身無法從罕見事件學習、概括。需要記憶增強。

增強記憶的結構可以是cho和sutskever所用的LSTM,也可以是santoro最近的工作中使用的動態查詢表。動態查詢表可以進一步加強,基于外置知識圖譜,比如Bengio實驗室的Sungjin提出的神經知識語言模型。

如果需要補全不完整的句子,我可以使用簡單的序列到序列模型。但由于罕見命名實體的關系,序列到序列模型的表現不會很好。模型原本很少有機會聽到“Crazymuse”。但是,如果我們學習從知識圖譜獲取命名實體,那么我們就可以使用罕見的命名實體補全句子,只要我們能夠識別主題和聯系,還有應該是從LSTM獲取信息還是從知識圖譜信息。這種組合知識圖譜和神經網絡的方法真的很棒。

就推理和推斷而言,這帶來了大量可能性,因為知識表示(主題,預測,目標)讓我們可以進行更復雜的推理任務,就像結合外顯模糊邏輯和內隱統計學習。

從知識圖譜獲取信息,加上注意力機制可能導向可解釋模型。

SQUAD這樣的問答數據集幫助人們在可推斷語言模型上取得了顯著進展。最近視覺問答方面的工作則使用Visual Genome、CLEVR、VRD這樣的數據集將圖像轉換為本體,并學習視覺關系以改善場景理解和推斷。

不過,場景理解下的問答進展仍有一些局限:

使用LSTM作為基于記憶的模型以及學習視覺關系的注意力轉移無疑改善了對環境的理解和概括能力。但學習過程和改善推理的權威形式方面仍有許多需要改進的地方。

結構中拼命使用卷積神經網絡,使得模型難以為人類所理解。這樣的架構也許很適合基本的分類問題和領域特定的生成任務,但并不是為推理設計的。相反,如果我們能像Tom Mitchell提出的Never-Ending Learning那樣,直接學習更豐富的知識圖譜中的多模實體表示和本體,那么我們就可以學習跨領域推理結構,并迫使模型更好地表達其對實體關系的理解。

我夢想有那么一天,機器學習推理。到了那一天,我們可以詢問機器:“你為什么覺得這個人有多發性硬化”,接著機器可以找到表述它的理據的詞匯。我知道Naftali在信息瓶頸原則方面的工作和Mitchell的Never-Ending Learning,但我們缺少的是主動學習模糊邏輯提供的基本推理結構上的抽象。它可以由基于獎勵的學習最佳策略驅動,也可以由基于單樣本學習原則的某種驗證驅動,也可以由某種基于半監督圖模型的方法驅動。但是,不管驅動因子是什么,模型需要學習改善推理。模型需要學習將推理引擎和來自聲音或圖像的豐富特征表示聯系起來,也許這甚至會促進類似策略迭代的“改善表示,改善推理,改善表示,改善推理”的循環。最重要的是,模型應該能夠向人類表述其抽象,例如,“你好,人類,我覺得貓很可愛,因為它們的眼睛和嬰兒的眼睛很像,充滿了生機,和你單調的日常完全不同”。

直到那一天,讓我們堅持訓練模型,同時堅持夢想那樣的模型運行的那一天。因為夢想化為現實的速度比你想象的要快!

關于作者

Jaley在YouTube上開設了Crazymuse AI頻道,也在Edyoda上開設了課程。他曾在哈曼擔任資深數據科學家,并對認識人類推理的結構極為好奇。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8419

    瀏覽量

    132675
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121182

原文標題:理解人類推理的深度學習

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型可解釋性的結果分析

    模型的可解釋性是機器學習領域的一個重要分支,隨著 AI 應用范圍的不斷擴大,人們越來越不滿足于模型的黑盒特性,與此同時,金融、自動駕駛等領域的法律法規也對模型的可解釋性提出了更高的要求,
    發表于 09-28 10:17 ?1004次閱讀
    機器<b class='flag-5'>學習</b>模型<b class='flag-5'>可解釋性</b>的結果分析

    什么是“可解釋的”? 可解釋性AI不能解釋什么

    通過建立既可解釋又準確的模型來改良這種錯誤的二分法。關鍵是將神經網絡與決策樹相結合,使用神經網絡進行低級決策時保留高級的可解釋性
    發表于 05-31 10:51 ?8530次閱讀

    斯坦福探索深度神經網絡可解釋性 決策樹是關鍵

    深度學習的熱潮還在不斷涌動,神經網絡再次成為業界人士特別關注的問題,AI 的未來大有可期,而深度學習正在影響我們的日常生活。近日斯坦福大學給我們分享咯一則他對
    發表于 01-10 16:06 ?4389次閱讀
    斯坦福探索<b class='flag-5'>深度</b>神經網絡<b class='flag-5'>可解釋性</b> 決策樹是關鍵

    機器學習模型的“可解釋性”的概念及其重要意義

    如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經網絡具有明顯的優勢。深度神經網絡能夠學習豐富的表示,這些表示能夠可視化、用語言表達或用于聚類
    的頭像 發表于 07-24 09:58 ?2w次閱讀

    神經網絡可解釋性研究的重要日益凸顯

    神經網絡的可解釋性,從經驗主義到數學建模
    的頭像 發表于 06-27 10:54 ?5248次閱讀

    深度理解神經網絡黑盒子:可驗證可解釋性

    雖然神經網絡近年來 AI 領域取得的成就中發揮了關鍵作用,但它們依舊只是有限可解釋性的黑盒函數近似器。
    的頭像 發表于 08-15 09:17 ?1.4w次閱讀

    Explainable AI旨在提高機器學習模型的可解釋性

    Google Cloud AI戰略總監Tracy Frey 今天的博客中解釋說,Explainable AI旨在提高機器學習模型的可解釋性。她說,這項新服務的工作原理是量化每個數據因
    的頭像 發表于 03-24 15:14 ?2953次閱讀

    機器學習模型可解釋性的介紹

    模型可解釋性方面的研究,近兩年的科研會議上成為關注熱點,因為大家不僅僅滿足于模型的效果,更對模型效果的原因產生更多的思考,這...
    的頭像 發表于 12-10 20:19 ?775次閱讀

    GNN解釋技術的總結和分析與圖神經網絡的解釋性綜述

    圖神經網絡的可解釋性是目前比較值得探索的方向,今天解讀的2021最新綜述,其針對近期提出的 GNN 解釋技術進行了系統的總結和分析,歸納對比了該問題的解決思路。
    的頭像 發表于 03-27 11:45 ?6235次閱讀
    GNN<b class='flag-5'>解釋</b>技術的總結和分析與圖神經網絡的<b class='flag-5'>解釋性</b>綜述

    圖神經網絡的解釋性綜述

    :https://arxiv.org/pdf/2012.15445.pdf 參考文獻 0.Abstract近年來,深度學習模型的可解釋性研究圖像和文本領域取得了顯著
    的頭像 發表于 04-09 11:42 ?2696次閱讀
    圖神經網絡的<b class='flag-5'>解釋性</b>綜述

    《計算機研究與發展》—機器學習可解釋性

    機器學習可解釋性 來源:《計算機研究與發展》,作者陳珂銳等 摘 要?近年來,機器學習發展迅速,尤其是深度學習
    發表于 01-25 08:35 ?1135次閱讀
    《計算機研究與發展》—機器<b class='flag-5'>學習</b>的<b class='flag-5'>可解釋性</b>

    關于機器學習模型的六大可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術。
    的頭像 發表于 02-26 17:20 ?2204次閱讀
    關于機器<b class='flag-5'>學習</b>模型的六大<b class='flag-5'>可解釋性</b>技術

    機器學習模型的可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-16 16:21 ?4709次閱讀
    機器<b class='flag-5'>學習</b>模型的<b class='flag-5'>可解釋性</b>算法詳解

    可以提高機器學習模型的可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-08 14:08 ?1265次閱讀

    文獻綜述:確保人工智能可解釋性和可信度的來源記錄

    本文對數據起源、可解釋AI(XAI)和可信賴AI(TAI)進行系統的文獻綜述,以解釋基本概念,說明數據起源文件可以用來提升基于人工智能系統實現可解釋性。此外,文中還討論了這個領域近期的發展模式,并對未來的研究進行展望。
    的頭像 發表于 04-28 15:55 ?1416次閱讀
    文獻綜述:確保人工智能<b class='flag-5'>可解釋性</b>和可信度的來源記錄
    主站蜘蛛池模板: aaaaa级毛片免费视频| 午夜看片网址| 一级毛片q片| 成人的天堂视频一区二区三区| 性欧美高清视频| 亚洲一区亚洲二区| 黄黄网址| 午夜免费片在线观看不卡| 久久青草91线频免费观看| 婷婷六月色| 妇女交性大片| 一区二区福利| 清朝荒淫牲艳史在线播放| 欧美最猛黑人xxxx黑人猛交69| 神马影视午夜| 1000部啪啪| 国产日韩精品欧美一区色| 欧美人与动性视频在线观| 五月激情婷婷网| 三级色网站| 特黄大片aaaaa毛片| 亚洲成人网在线观看| 麻生希痴汉电车avop130| 91av视频网站| 欧美xxxx性疯狂bbbb| 国产真实野战在线视频| 奇米第四狠狠777高清秒播| 午夜香蕉视频| 久久精品亚洲| 国产午夜免费视频片夜色| 亚洲国产七七久久桃花| 国产美女被艹| 俄罗斯欧美色黄激情| 精品国产一区二区三区成人| 小草影院亚洲私人影院| 久久久xxx| 色婷婷激婷婷深爱五月小说| 色最快国产| 色优久久| 狠狠涩| 国产毛片农村妇女aa板|