在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌提出元獎勵學(xué)習(xí),兩大基準(zhǔn)測試刷新最優(yōu)結(jié)果

DPVg_AI_era ? 來源:lq ? 2019-02-24 10:34 ? 次閱讀

RL算法由于獎勵不明確,智能體可能會收到“利用環(huán)境中的虛假模式”的正反饋,這就有可能導(dǎo)致獎勵黑客攻擊。谷歌提出了使用開發(fā)元獎勵學(xué)習(xí)(MeRL)來解決未指定獎勵的問題,通過優(yōu)化輔助獎勵函數(shù)向智能體提供更精確的反饋。

強(qiáng)化學(xué)習(xí)(RL)為優(yōu)化面向目標(biāo)的行為,提供了統(tǒng)一且靈活的框架。

并且在解決諸如:玩視頻游戲、連續(xù)控制和機(jī)器人學(xué)習(xí)等具有挑戰(zhàn)性的任務(wù)方面,取得了顯著成功。

RL算法在這些應(yīng)用領(lǐng)域的成功,往往取決于高質(zhì)量和密集獎勵反饋的可用性。

然而,將RL算法的適用性,擴(kuò)展到具有稀疏和未指定獎勵的環(huán)境,是一個(gè)持續(xù)的挑戰(zhàn)。

需要學(xué)習(xí)智能體從有限的反饋中,概括例如如何學(xué)習(xí)正確行為的問題。

在這種問題設(shè)置中研究RL算法性能的一種自然方法,是通過自然語言理解任務(wù)。

為智能體提供自然語言輸入,并且需要生成復(fù)雜的響應(yīng),以實(shí)現(xiàn)輸入過程中指定的目標(biāo),同時(shí)僅接收“成功-失敗”的反饋。

例如一個(gè)“盲”智能體,任務(wù)是通過遵循一系列自然語言命令(例如,“右,上,上,右”)到達(dá)迷宮中的目標(biāo)位置。

給定輸入文本,智能體(綠色圓圈)需要解釋命令,并基于這種解釋采取動作以生成動作序列(a)。

如果智能體人達(dá)到目標(biāo)(紅色星級),則獲得1的獎勵,否則返回0。

由于智能體無法訪問任何可視信息,因此智能體解決此任務(wù),并概括為新指令的唯一方法,是正確解釋指令。

在這些任務(wù)中,RL智能體需要學(xué)習(xí)從稀疏(只有少數(shù)軌跡導(dǎo)致非零獎勵)和未指定(無目的和意外成功之間的區(qū)別)獎勵。

重要的是,由于獎勵不明確,智能體可能會收到“利用環(huán)境中的虛假模式”的正反饋,這就有可能導(dǎo)致獎勵黑客攻擊,在實(shí)際系統(tǒng)中部署時(shí)會導(dǎo)致意外和有害的行為。

在“學(xué)習(xí)從稀疏和未指定的獎勵中進(jìn)行概括”中,使用開發(fā)元獎勵學(xué)習(xí)(MeRL)來解決未指定獎勵的問題,通過優(yōu)化輔助獎勵函數(shù)向智能體提供更精確的反饋。

《Learning to Generalize from Sparse and Underspecified Rewards》論文地址:

https://arxiv.org/abs/1902.07198

MeRL與使用“新探索策略收集到成功軌跡”的記憶緩沖區(qū)相結(jié)合,從而通過稀疏獎勵學(xué)習(xí)。

這個(gè)方法的有效性在語義分析中得到證明,其目標(biāo)是學(xué)習(xí)從自然語言到邏輯形式的映射(例如,將問題映射到SQL程序)。

本文研究了弱監(jiān)督問題設(shè)置,其目標(biāo)是從問答配對中自動發(fā)現(xiàn)邏輯程序,而不需要任何形式的程序監(jiān)督。

例如下圖中找出“哪個(gè)國家贏得最多銀牌?”,智能體需要生成類似SQL的程序,以產(chǎn)生正確的答案(即“尼日利亞”)。

所提出的方法在WikiTableQuestions和WikiSQL基準(zhǔn)測試中實(shí)現(xiàn)了最先進(jìn)的結(jié)果,分別將先前的工作提升了1.2%和2.4%。

MeRL自動學(xué)習(xí)輔助獎勵函數(shù),而無需使用任何專家演示(例如,ground-truth計(jì)劃),使其更廣泛適用并且與先前的獎勵學(xué)習(xí)方法不同。

高級概述:

元獎勵學(xué)習(xí)(MeRL)

MeRL在處理不明確獎勵方面發(fā)現(xiàn),虛假軌跡和實(shí)現(xiàn)意外成功的程序,對智能體的泛化性能不利。

例如,智能體可能解決上述迷宮問題的特定實(shí)例。但是,如果它在訓(xùn)練期間學(xué)會執(zhí)行虛假動作,提供看不見的指令則可能導(dǎo)致其失敗。

為了緩解這個(gè)問題,MeRL優(yōu)化了更精確的輔助獎勵函數(shù),可以根據(jù)行動軌跡的特征區(qū)分意外、或非意外的成功。

通過元學(xué)習(xí)最大化訓(xùn)練的智能體在保持驗(yàn)證集上的表現(xiàn),來優(yōu)化輔助獎勵。

從稀疏獎勵中學(xué)習(xí)

要從稀疏的獎勵中學(xué)習(xí),有效的探索如何找到一組成功軌跡,至關(guān)重要。

論文通過利用Kullback-Leibler(KL)發(fā)散的兩個(gè)方向來解決這一挑戰(zhàn),這是一種衡量兩種不容概率分布的方法。

在下面的示例中,使用KL散度來最小化固定雙峰(陰影紫色)和學(xué)習(xí)高斯(陰影綠色)分布之間的差異,這可以分別代表智能體的最優(yōu)策略分布,和學(xué)習(xí)的策略的分布。

KL對象的一個(gè)學(xué)習(xí)方向,試圖覆蓋兩種模式的分布,而其他目標(biāo)學(xué)習(xí)的分布,則在尋求特定模式(即,它更喜歡A模式而不是B模式)。

我們的方法利用模式覆蓋了KL關(guān)注多個(gè)峰值以收集多樣化的成功軌跡和模式的傾向,尋求KL在軌跡之間的隱含偏好,以學(xué)習(xí)強(qiáng)有力的策略。

結(jié)論

設(shè)計(jì)區(qū)分最佳和次優(yōu)行為的獎勵函數(shù)對于將RL應(yīng)用于實(shí)際應(yīng)用程序至關(guān)重要。

這項(xiàng)研究在沒有任何人為監(jiān)督的情況下向獎勵函數(shù)建模方向邁出了一小步。

在未來的工作中,我們希望從自動學(xué)習(xí)密集獎勵函數(shù)的角度解決RL中的信用分配問題。

致謝

這項(xiàng)研究是與Chen Liang和Dale Schuurmans合作完成的。 我們感謝Chelsea Finn和Kelvin Guu對該論文的評論。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6170

    瀏覽量

    105458
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    152

    瀏覽量

    10586
  • 強(qiáng)化學(xué)習(xí)

    關(guān)注

    4

    文章

    266

    瀏覽量

    11262

原文標(biāo)題:谷歌提出元獎勵學(xué)習(xí),兩大基準(zhǔn)測試刷新最優(yōu)結(jié)果

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    影響OTDR測試結(jié)果的因素

    光時(shí)域反射儀(OTDR)是光纖通信領(lǐng)域中不可或缺的測試工具。它通過發(fā)送光脈沖并測量反射回來的光信號,來確定光纖鏈路的長度、損耗和故障位置。然而,OTDR測試結(jié)果的準(zhǔn)確性受到多種因素的影響。 1.
    的頭像 發(fā)表于 12-31 09:22 ?138次閱讀

    MLCommons推出AI基準(zhǔn)測試0.5版

    開放式機(jī)器學(xué)習(xí)工程聯(lián)盟 MLCommons 在美國加州當(dāng)?shù)貢r(shí)間公布推出適用于消費(fèi)類 PC 的 AI 性能的 MLPerf Client 基準(zhǔn)測試的 0.5 版,這是該測試的第一個(gè)公開版
    的頭像 發(fā)表于 12-12 16:47 ?326次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近

    2.0在關(guān)鍵基準(zhǔn)測試中相比前代產(chǎn)品Gemini 1.5 Pro的性能提升了近倍。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實(shí)現(xiàn)文本與圖像的混合生成以及自定義的多語言文本轉(zhuǎn)語音(TTS)內(nèi)容。 此外,Gemini
    的頭像 發(fā)表于 12-12 14:22 ?287次閱讀

    ESD HBM測試差異較大的結(jié)果分析

    ESD HBM測試結(jié)果差異較大的原因,通常包括設(shè)備/儀器差異、?校準(zhǔn)和維護(hù)水平不同、?環(huán)境條件差異、?測試樣本差異、?測試操作員技能和經(jīng)驗(yàn)差異以及
    的頭像 發(fā)表于 11-18 15:17 ?448次閱讀
    ESD HBM<b class='flag-5'>測試</b>差異較大的<b class='flag-5'>結(jié)果</b>分析

    DaVinci系統(tǒng)級基準(zhǔn)測試測量

    電子發(fā)燒友網(wǎng)站提供《DaVinci系統(tǒng)級基準(zhǔn)測試測量.pdf》資料免費(fèi)下載
    發(fā)表于 10-16 11:32 ?0次下載
    DaVinci系統(tǒng)級<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>測試</b>測量

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準(zhǔn)測試五項(xiàng)性能全球第一

    眾,在3D-UNet和CosmoFlow個(gè)模型共計(jì)八項(xiàng)測試中,斬獲五項(xiàng)冠軍。 MLPerf? Storage v1.0 AI存儲基準(zhǔn)測試成績 MLPerf??是影響力最廣的國際AI性
    的頭像 發(fā)表于 09-28 16:46 ?221次閱讀
    浪潮信息AS13000G7榮獲MLPerf? AI存儲<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>測試</b>五項(xiàng)性能全球第一

    華為云圖引擎服務(wù)GES震撼業(yè)界,刷新基準(zhǔn)測試世界紀(jì)錄

    9月26日,國際知名的關(guān)聯(lián)數(shù)據(jù)基準(zhǔn)委員會(LDBC)最新公布的社交網(wǎng)絡(luò)測試交互式負(fù)載(SNB)成績單上,華為云的圖引擎服務(wù)(GES)大放異彩,圓滿通過了所有基于聲明式查詢語言的基準(zhǔn)測試
    的頭像 發(fā)表于 09-27 14:28 ?495次閱讀

    普強(qiáng)成功榮登兩大榜單

    普強(qiáng)憑借其深厚的技術(shù)積累和創(chuàng)新能力,不斷推出高性能、高質(zhì)量的產(chǎn)品和解決方案,成功榮登兩大榜單,這是對普強(qiáng)卓越的技術(shù)實(shí)力和應(yīng)用層面的肯定。
    的頭像 發(fā)表于 09-13 10:34 ?1116次閱讀

    Sitara? AM62Ax基準(zhǔn)測試

    電子發(fā)燒友網(wǎng)站提供《Sitara? AM62Ax基準(zhǔn)測試.pdf》資料免費(fèi)下載
    發(fā)表于 09-07 10:41 ?0次下載
    Sitara? AM62Ax<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>測試</b>

    中文大模型測評基準(zhǔn)SuperCLUE:商湯日日新5.0,刷新國內(nèi)最好成績

    日前,中文大模型測評基準(zhǔn)SuperCLUE發(fā)布最新榜單,對商湯科技全新升級「日日新SenseNova 5.0」大模型進(jìn)行了全方位綜合性測評,結(jié)果顯示在SuperCLUE綜合基準(zhǔn)上,日日新 5.0表現(xiàn)
    的頭像 發(fā)表于 05-21 14:45 ?758次閱讀
    中文大模型測評<b class='flag-5'>基準(zhǔn)</b>SuperCLUE:商湯日日新5.0,<b class='flag-5'>刷新</b>國內(nèi)最好成績

    谷歌提出大規(guī)模ICL方法

    谷歌DeepMind團(tuán)隊(duì)近日取得了一項(xiàng)突破性的研究成果。他們提出了強(qiáng)化和無監(jiān)督種新型的ICL(In-Context Learning)學(xué)習(xí)方法,這一創(chuàng)新技術(shù)能夠在多個(gè)領(lǐng)域顯著提升模型
    的頭像 發(fā)表于 05-14 14:17 ?364次閱讀

    用STM32L4R9驅(qū)動480*800的LCD屏幕,結(jié)果屏幕刷新看起來是逐行進(jìn)行,刷新速度較慢,是否正常?

    請問一下,用STM32L4R9驅(qū)動480*800的LCD屏幕(采用一個(gè)數(shù)據(jù)通道),結(jié)果屏幕刷新看起來是逐行進(jìn)行,刷新速度較慢,是否正常,如果有問題可能會是哪里?例程和資料都可以看出整屏同時(shí)刷新
    發(fā)表于 03-22 07:04

    通用CPU性能基準(zhǔn)測試的研究現(xiàn)狀

    經(jīng)過持續(xù)迭代升級,TPC已發(fā)展成為能夠滿足多種應(yīng)用場景性能測試需求的基準(zhǔn)測試簇,根據(jù)測試場景和測試事務(wù)的不同,可將 TPC性能
    發(fā)表于 02-20 10:22 ?713次閱讀
    通用CPU性能<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>測試</b>的研究現(xiàn)狀

    谷歌自研手機(jī)SoC測試訂單交由京

    近日,谷歌在半導(dǎo)體委外策略上迎來了一次重大轉(zhuǎn)變,其自研手機(jī)系統(tǒng)單芯片(SoC)“Tensor”首次釋出測試訂單給臺灣的京電。這一舉動打破了以往與三星合作的統(tǒng)包晶圓代工與封測的模式。
    的頭像 發(fā)表于 01-18 15:28 ?654次閱讀

    如何從零開始構(gòu)建深度學(xué)習(xí)項(xiàng)目?(如何啟動一個(gè)深度學(xué)習(xí)項(xiàng)目)

    性能重大提升的背后往往是模型設(shè)計(jì)的改變。不過有些時(shí)候?qū)δP瓦M(jìn)行微調(diào)也可以提升機(jī)器學(xué)習(xí)的性能。最終的判斷可能會取決于你對相應(yīng)任務(wù)的基準(zhǔn)測試結(jié)果
    發(fā)表于 01-11 10:49 ?308次閱讀
    如何從零開始構(gòu)建深度<b class='flag-5'>學(xué)習(xí)</b>項(xiàng)目?(如何啟動一個(gè)深度<b class='flag-5'>學(xué)習(xí)</b>項(xiàng)目)
    主站蜘蛛池模板: 四虎影院视频| 激情伦成人综合小说| www.亚洲天堂| 日韩专区一区| 日日噜噜夜夜狠狠久久aⅴ| 日韩在线看片| 欧美zoozzooz性欧美| 亚洲爱爱网站| 婷婷丁香色综合狠狠色| 成人综合婷婷国产精品久久免费 | 污女网站| 丝袜紧身裙国产在线播放| 日韩高清特级特黄毛片| 女人张开腿给男人桶爽免费| 四虎国产永久在线观看| 色婷婷一区| 五月婷婷免费视频| 伊人久久大香线蕉资源| 日本不卡一区二区三区在线观看| 午夜视频黄色| 亚洲网站免费看| 公开免费视频| 欧美操穴| 狼狼鲁狼狼色| 女主播扒开内衣让粉丝看个够| 一级特黄aa大片| 日本黄色小视频网站| 色婷婷狠狠久久综合五月| 天堂视频网| 欧美瑟瑟| 操你啦在线播放| 欧美午夜精品| 美国三级网| 一级特级aaa毛片| 欧美性喷潮xxxx| 97av在线| 超级乱淫视频播放日韩| 五月丁香六月综合缴清无码| 欧美 亚洲 国产 精品有声| 婷婷综合久久中文字幕蜜桃三| 免费爱爱视频|