在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind的最新研究結(jié)合了神經(jīng)網(wǎng)絡(luò)和隨機過程的優(yōu)點提出神經(jīng)過程模型

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-07-09 09:04 ? 次閱讀

函數(shù)逼近是機器學(xué)習(xí)中許多問題的核心,DeepMind的最新研究結(jié)合了神經(jīng)網(wǎng)絡(luò)和隨機過程的優(yōu)點,提出神經(jīng)過程模型,在多任務(wù)上實現(xiàn)了很好的性能和高計算效率。

函數(shù)逼近(Function approximation)是機器學(xué)習(xí)中許多問題的核心,在過去十年來,這個問題的一種非常流行的方法是深度神經(jīng)網(wǎng)絡(luò)。高級神經(jīng)網(wǎng)絡(luò)由黑盒函數(shù)逼近器構(gòu)成,它們學(xué)習(xí)從大量訓(xùn)練數(shù)據(jù)點參數(shù)化單個函數(shù)。因此,網(wǎng)絡(luò)的大部分工作負(fù)載都落在訓(xùn)練階段,而評估和測試階段則被簡化為快速的前向傳播。雖然高的測試時間性能對于許多實際應(yīng)用是有價值的,但是在訓(xùn)練之后就無法更新網(wǎng)絡(luò)的輸出,這可能是我們不希望的。例如,元學(xué)習(xí)(Meta-learning)是一個越來越受歡迎的研究領(lǐng)域,解決的正是這種局限性。

作為神經(jīng)網(wǎng)絡(luò)的一種替代方案,還可以對隨機過程進(jìn)行推理以執(zhí)行函數(shù)回歸。這種方法最常見的實例是高斯過程( Gaussian process, GP),這是一種具有互補性質(zhì)的神經(jīng)網(wǎng)絡(luò)模型:GP不需要昂貴的訓(xùn)練階段,可以根據(jù)某些觀察結(jié)果對潛在的ground truth函數(shù)進(jìn)行推斷,這使得它們在測試時非常靈活。

此外,GP在未觀察到的位置表示無限多不同的函數(shù),因此,在給定一些觀察結(jié)果的基礎(chǔ)上,它能捕獲其預(yù)測的不確定性。但是,GP在計算上是昂貴的:原始GP對數(shù)據(jù)點數(shù)量是3次方量級的scale,而當(dāng)前最優(yōu)的逼近方法是二次逼近。此外,可用的kernel通常以其函數(shù)形式受到限制,需要一個額外的優(yōu)化過程來為任何給定的任務(wù)確定最合適的kernel及其超參數(shù)。

因此,將神經(jīng)網(wǎng)絡(luò)和隨機過程推理結(jié)合起來,彌補兩種方法分別具有的一些缺點,這作為一種潛在解決方案越來越受到關(guān)注。在這項工作中,DeepMind研究科學(xué)家Marta Garnelo等人的團(tuán)隊提出一種基于神經(jīng)網(wǎng)絡(luò)并學(xué)習(xí)隨機過程逼近的方法,他們稱之為神經(jīng)過程(Neural Processes, NPs)。NP具有GP的一些基本屬性,即它們學(xué)習(xí)在函數(shù)之上建模分布,能夠根據(jù)上下文的觀察估計其預(yù)測的不確定性,并將一些工作從訓(xùn)練轉(zhuǎn)移到測試時間,以實現(xiàn)模型的靈活性。

更重要的是,NP以一種計算效率非常高的方式生成預(yù)測。給定n個上下文點和m個目標(biāo)點,一個經(jīng)過訓(xùn)練的NP的推理對應(yīng)于一個深度神經(jīng)網(wǎng)絡(luò)的前向傳遞,它以scale,而不是像經(jīng)典GP那樣以。此外,該模型通過直接從數(shù)據(jù)中學(xué)習(xí)隱式內(nèi)核(implicit kernel)來克服許多函數(shù)設(shè)計上的限制。

本研究的主要貢獻(xiàn)是:

提出神經(jīng)過程(Neural Processes),這是一種結(jié)合了神經(jīng)網(wǎng)絡(luò)和隨機過程的優(yōu)點的模型。

我們將神經(jīng)過程(NP)與元學(xué)習(xí)(meta-learning)、深層潛變量模型(deep latent variable models)和高斯過程(Gaussian processes)的相關(guān)工作進(jìn)行了比較。鑒于NP與這些領(lǐng)域多有相關(guān),它們讓許多相關(guān)主題之間可以進(jìn)行比較。

我們通過將NP應(yīng)用于一系列任務(wù),包括一維回歸、真實的圖像補完、貝葉斯優(yōu)化和contextual bandits來證明了NP的優(yōu)點和能力。

神經(jīng)過程模型

圖1:神經(jīng)過程模型。

(a)neural process的圖模型,x和y分別對應(yīng)于y = f(x)的數(shù)據(jù),C和T分別表示上下文點和目標(biāo)點的個數(shù),z表示全局潛變量。灰色背景表示觀察到變量。

(b)neural process的實現(xiàn)示意圖。圓圈中的變量對應(yīng)于(a)中圖模型的變量,方框中的變量表示NP的中間表示,粗體字母表示以下計算模塊:h - encoder, a - aggregator和g - decoder。在我們的實現(xiàn)中,h和g對應(yīng)于神經(jīng)網(wǎng)絡(luò),a對應(yīng)于均值函數(shù)。實線表示生成過程,虛線表示推理過程。

在我們的NP實現(xiàn)中,我們提供了兩個額外的需求:上下文點的順序和計算效率的不變性(invariance)。

最終的模型可歸結(jié)為以下三個核心組件(見圖1b):

從輸入空間到表示空間的編碼器(encoder)h,輸入是成對的上下文值,并為每對生成一個表示。我們把h參數(shù)化為一個神經(jīng)網(wǎng)絡(luò)。

聚合器(aggregator)a,匯總編碼器的輸入。

條件解碼器(conditional decoder)g,它將采樣的全局潛變量z以及新的目標(biāo)位置作為輸入,并為對應(yīng)的的值輸出預(yù)測

圖2:相關(guān)模型(a-c)和神經(jīng)過程(d)的圖模型。灰色陰影表示觀察到變量。C表示上下文變量,T表示目標(biāo)變量,即給定C時要預(yù)測的變量。

結(jié)果

圖4. MNIST和CelebA上的像素化回歸

左邊的圖展示了一張圖像完成像素化可以框定為一個2-D回歸任務(wù),其中f(像素坐標(biāo))=像素亮度。右邊的圖展示了圖像實現(xiàn)MNIST和CelebA的結(jié)果。頂部的圖像對應(yīng)提供給模型的上下文節(jié)點。為了能夠更清晰的展現(xiàn),未被觀察到的點在MNIST和CelebA中分別標(biāo)記為藍(lán)色和白色。在給定文本節(jié)點的情況下,每一行對應(yīng)一個不同的樣本。隨著文本節(jié)點的增加,預(yù)測像素越來越接近底層像素,且樣本間的方差逐漸減小。

圖5. 用神經(jīng)過程對1-D目標(biāo)函數(shù)進(jìn)行湯普森抽樣

這些圖展示了5次迭代優(yōu)化的過程。每個預(yù)測函數(shù)(藍(lán)色)是通過對一個潛變量(latent variable)的采樣來繪制的,其中該變量的條件是增加文本節(jié)點(黑色)的數(shù)量。底層的ground truth函數(shù)被表示為一條黑色虛線。紅色三角形表示下一個評估點(evaluation point),它對應(yīng)于抽取的NP曲線的最小值。下一個迭代中的紅色圓圈對應(yīng)于這個評估點,它的底層ground truth指將作為NP的一個新文本節(jié)點。

表1. 使用湯普森抽樣對貝葉斯優(yōu)化

優(yōu)化步驟的平均數(shù)需要達(dá)到高斯過程生成的1-D函數(shù)的全局最小值。這些值是通過隨機搜索采取步驟數(shù)來標(biāo)準(zhǔn)化的。使用恰當(dāng)?shù)暮耍╧ernel)的高斯過程的性能等同于性能的上限。

表2. 增加δ值后wheel bandit問題的結(jié)果

結(jié)果表示的是超過100次的累加regret和簡單regret的平均誤差和標(biāo)準(zhǔn)誤差。結(jié)果歸一化了一個統(tǒng)一體(uniform agent)的性能。

討論

我們介紹了一組結(jié)合隨機過程和神經(jīng)網(wǎng)絡(luò)優(yōu)點的模型,叫做神經(jīng)過程。NPs學(xué)會在函數(shù)上表示分布,并且測試時根據(jù)一些文本輸入做出靈活的預(yù)測。NPs不需要親自編寫內(nèi)核,而是直接從數(shù)據(jù)中學(xué)習(xí)隱式度量(implicit measure)。

我們將NPs應(yīng)用于一些列回歸任務(wù),以展示它們的靈活性。本文的目的是介紹NPs,并將它與目前正在進(jìn)行的研究做對比。因此,我們呈現(xiàn)的任務(wù)是雖然種類很多,但是維數(shù)相對較低。將NPs擴(kuò)展到更高的維度,可能會大幅度降低計算復(fù)雜度和數(shù)據(jù)驅(qū)動表示(data driven representations)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:【ICML Oral】DeepMind提出深度學(xué)習(xí)新方向:神經(jīng)過程模型

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本
    發(fā)表于 03-20 11:32

    求基于labview的BP神經(jīng)網(wǎng)絡(luò)算法的實現(xiàn)過程

    求高手,基于labview的BP神經(jīng)網(wǎng)絡(luò)算法的實現(xiàn)過程,最好有程序哈,謝謝!!
    發(fā)表于 12-10 14:55

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識

    學(xué)習(xí)和認(rèn)知科學(xué)領(lǐng)域,是一種模仿生物神經(jīng)網(wǎng)絡(luò)(動物的中樞神經(jīng)系統(tǒng),特別是大腦)的結(jié)構(gòu)和功能的數(shù)學(xué)模型或計算模型,用于對函數(shù)進(jìn)行估計或近似。神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 03-03 22:10

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實由兩部分組成:前饋
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    元,它決定該輸入向量在地位空間中的位置。SOM神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是為每個輸出層神經(jīng)元找到合適的權(quán)向量,以達(dá)到保持拓?fù)浣Y(jié)構(gòu)的目的。SOM的訓(xùn)練過程其實很簡單,就是接收到一個訓(xùn)練樣本后
    發(fā)表于 07-21 04:30

    卷積神經(jīng)網(wǎng)絡(luò)優(yōu)點是什么

    卷積神經(jīng)網(wǎng)絡(luò)優(yōu)點
    發(fā)表于 05-05 18:12

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高
    發(fā)表于 07-12 08:02

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    分析目前的特殊模型結(jié)構(gòu),最后總結(jié)并討論卷積神經(jīng)網(wǎng)絡(luò)在相關(guān)領(lǐng)域的應(yīng)用,并對未來的研究方向進(jìn)行展望。卷積
    發(fā)表于 08-02 10:39

    加工過程神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)控制

    本文提出了用神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)控制器對加工過程進(jìn)行控制的方法。并以銑床加工過程為例,針對原PID控制器產(chǎn)生超調(diào)量過大,控制效果不理想,設(shè)
    發(fā)表于 12-26 13:58 ?10次下載

    深度神經(jīng)決策樹:深度神經(jīng)網(wǎng)絡(luò)和樹模型結(jié)合的新模型

    近日,來自愛丁堡大學(xué)的研究人員提出了一種結(jié)合深度神經(jīng)網(wǎng)絡(luò)和樹模型的新型模型——深度
    的頭像 發(fā)表于 08-19 09:14 ?1.3w次閱讀

    什么是高斯過程 神經(jīng)網(wǎng)絡(luò)高斯過程解析

    神經(jīng)網(wǎng)絡(luò)是怎么和高斯過程聯(lián)系在一起的呢?Lee et al. [1] and Neal [2] 指出,隨機初始化無限寬網(wǎng)絡(luò)的參數(shù)會產(chǎn)生一個高斯過程
    發(fā)表于 08-10 11:25 ?4432次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)優(yōu)點

    卷積神經(jīng)網(wǎng)絡(luò)優(yōu)點? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型,在圖
    的頭像 發(fā)表于 12-07 15:37 ?4433次閱讀

    bp神經(jīng)網(wǎng)絡(luò)算法過程包括

    的算法過程,包括網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)、訓(xùn)練過程、反向傳播算法、權(quán)重更新策略等。 網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成,每層包含若
    的頭像 發(fā)表于 07-04 09:45 ?476次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個廣泛使用的開源深度學(xué)習(xí)庫,提供豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是
    的頭像 發(fā)表于 07-10 14:57 ?510次閱讀

    如何使用經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型

    使用經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型是一個涉及多個步驟的過程,包括數(shù)據(jù)準(zhǔn)備、模型加載、預(yù)測執(zhí)行以及后續(xù)優(yōu)化等。
    的頭像 發(fā)表于 07-12 11:43 ?1012次閱讀
    主站蜘蛛池模板: 亚洲美女精品| 91x视频| 你懂得国产| 色天天综合色天天碰| 天天干夜夜笙歌| 奇米影视777狠狠狠888不卡| 人人天天爱天天做天天摸| 免费人成网站永久| 成人夜色香网站在线观看| 在线观看免费午夜大片| 日本久久综合视频| 日本美女黄视频| 久久夜色tv网站| 丁香六月在线| 午夜视| 九九久久九九久久| 黄色xxxx| 久99热| 五月婷婷综合色| 日韩精品视频免费在线观看| 免费人成激情视频在线观看冫| 精品一区二区三区免费毛片爱| 成人精品一区二区不卡视频 | 欲香欲色| 上课被同桌强行摸下面小黄文| 欧美精品成人久久网站| 国产色秀视频| 天天都色| 在线视频资源| 狼人狠狠干| 717影院理伦午夜论八戒| 综合色爱| 日本大片免a费观看在线| 三级在线网站| 黄频网站免费大全在线观看| 久久女人网| 一级片免费视频| 免费看国产精品久久久久| 67xxxxxx日本| 婷婷色婷婷| 激情综合站|