在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind提出SAC-X學習范式,無需先驗知識就能解決稀疏獎勵任務(wù)

zhKF_jqr_AI ? 來源:未知 ? 作者:李建兵 ? 2018-03-17 10:51 ? 次閱讀

讓兒童(和成年人)整理東西已經(jīng)是件難事了,但是想讓AI像人一樣整理東西是個不小的挑戰(zhàn)。一些視覺運動的核心技能是取得成功的關(guān)鍵:接近一個物體,抓住并且提起它,然后打開一個盒子,將其放入盒中。要完成更復(fù)雜的動作,必須按照正確順序應(yīng)用這些技能。

控制任務(wù),比如整理桌子或堆疊物體,都需要智能體決定如何、何時并且在哪里協(xié)調(diào)機械臂和手指的六個關(guān)節(jié)以移動并實現(xiàn)目標。在某一特定時刻,可能的動作會有多種組合,并且要想把它們按順序組合好,就產(chǎn)生了嚴重的問題——這也使得強化學習成為一個有趣的領(lǐng)域。

類似獎勵塑造(reward shaping)、學徒式學習(apprenticeship learning)或從展示中學習有助于解決上述問題。但是,這些方法需要對任務(wù)有足夠的了解——利用很少的先驗知識學習復(fù)雜的控制任務(wù)仍然是未解決的挑戰(zhàn)。

昨天,DeepMind提出了一種新的學習模式,名為“計劃輔助控制(SAC-X)”以解決上述問題。SAC-X的工作原理是,為了從零開始掌握復(fù)雜任務(wù),智能體必須先學習探索一系列基礎(chǔ)技能,并掌握他們。正如嬰兒在學會爬行和走路前必須學會保持平衡一樣,讓智能體學習簡單技能以增強內(nèi)部協(xié)調(diào)性,有助于它們理解并執(zhí)行復(fù)雜任務(wù)。

研究人員在一些模擬環(huán)境和真實機器人上試驗了SAC-X方法,其中包括堆疊不同目標物體和整理桌子(其中需要移動對象)。他們所指的輔助任務(wù)的通用原則是:鼓勵智能體探索它的感應(yīng)空間。例如,激活手指的觸覺感應(yīng)器、在腕部的感應(yīng)器感受力度的大小、將本體感應(yīng)器的關(guān)節(jié)角度最大化或強制物體在其視覺相機傳感器中移動。如果達到目標,每個任務(wù)都會得到一個簡單的獎勵,否則沒有獎勵。

模擬智能體最終掌握了“堆疊”這一復(fù)雜任務(wù)

智能體最后能自己決定它現(xiàn)在的“目的”,即下一步要完成什么目標,這有可能是一項輔助任務(wù),或是外部決定的目標任務(wù)。重要的是,通過廣泛使用off-policy學習,智能體可以檢測到獎勵信號并從中學習。比如,在撿起或移動目標物體時,智能體可能會不經(jīng)意間完成堆疊動作,這樣會使獎勵觀察到這一動作。由于一系列簡單任務(wù)能導(dǎo)致稀有的外部獎勵,所以對目標進行規(guī)劃是十分重要的。它可以根據(jù)收集的相關(guān)知識創(chuàng)建個性化的學習課程。事實證明這是在如此寬廣的領(lǐng)域開發(fā)知識的有效方式,并且當只有少量外部獎勵信號可用時,這種方法更加有用。我們的智能體通過調(diào)度模塊決定下一個目標。調(diào)度器在訓練過程中通過元學習算法得到改進,該算法試圖讓主任務(wù)的進度實現(xiàn)最大化,顯著提高數(shù)據(jù)效率。

探索了一些內(nèi)部輔助任務(wù)后,智能體學會了如何堆疊及清理物品

對SAC-X的評估表示,使用相同的底層輔助任務(wù),SAC-X能從零開始解決問題。令人興奮的是,在實驗室里,SAC-X能在真實的機械臂上從零學習拾取和放置任務(wù)。這在過去是很有難度的,因為在真實的機械臂上學習需要數(shù)據(jù)效率。所以人們通常會訓練一個模擬智能體,然后再轉(zhuǎn)移到真正的機械臂上。

DeepMind的研究人員認為SAC-X的誕生是從零學習控制任務(wù)的重要一步(只需要確定任務(wù)的最終目標)。SAC-X允許你設(shè)定任意的輔助任務(wù):它可以是一般的任務(wù)(如激活傳感器),也可以是研究人員需要的任何任務(wù)。也就是說在這方面,SAC-X是一種通用的強化學習方法,除了用于控制任務(wù)和機器人任務(wù)之外,能廣泛適用于一般的稀疏強化學習環(huán)境。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    130

    瀏覽量

    10882

原文標題:DeepMind提出SAC-X學習范式,無需先驗知識就能解決稀疏獎勵任務(wù)

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于稀疏編碼的遷移學習及其在行人檢測中的應(yīng)用

    一定進展,但大都需要大量的訓練數(shù)據(jù).針對這一問題,提出了一種基于遷移學習的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標記樣本中,學習到一個緊湊、有效的特征表示;然后通過遷移
    發(fā)表于 04-24 09:48

    電腦硬件知識大全 大小問題自己就能解決 DOC文檔

    電腦硬件知識大全大小問題自己就能解決DOC文檔下載附件:
    發(fā)表于 02-18 15:29

    稀疏表示和字典學習是什么

    稀疏表示和字典學習的簡單理解
    發(fā)表于 08-27 14:44

    未來的AI 深挖谷歌 DeepMind 和它背后的技術(shù)

    學習從非結(jié)構(gòu)化數(shù)據(jù)中學習來編寫分析報告或執(zhí)行無人監(jiān)督的任務(wù)。所有這些發(fā)展都為不同的公司發(fā)揮作用并證明他們的價值奠定了基礎(chǔ)。因此,很多像DeepMind這樣的公司成立了,來繼續(xù)發(fā)展這一領(lǐng)
    發(fā)表于 08-26 12:04

    一種融合節(jié)點先驗信息的圖表示學習方法

    基于深度學習提出了融合節(jié)點先驗信息的圖表示學習方法,該方法將節(jié)點特征作為先驗知識。要求
    發(fā)表于 12-18 16:53 ?0次下載
    一種融合節(jié)點<b class='flag-5'>先驗</b>信息的圖表示<b class='flag-5'>學習</b>方法

    先驗置信傳播的圖像修復(fù)算法

    先驗置信傳播( priority-BP)算法很難在實際中達到實時處理的要求,計算效率也有很大的提升空間。針對先驗BP算法在圖像修復(fù)上的應(yīng)用,改進算法主要在信息傳遞以及標簽搜索方面提出改進措施。在信息
    發(fā)表于 12-21 09:26 ?0次下載
    <b class='flag-5'>先驗</b>置信傳播的圖像修復(fù)算法

    DeepMind通過SAC-X推新算法教AI從零學起

    SAC-X 是基于從頭開始學習復(fù)雜的任務(wù)這種想法,即一個智能體首先應(yīng)該學習并掌握一套基本技能。就像嬰兒在爬行或走路前必須具有協(xié)調(diào)能力和平衡能力,為智能體提供與簡單技能相對應(yīng)的內(nèi)在目標(
    發(fā)表于 03-09 12:51 ?1309次閱讀

    DeepMind提出強化學習新算法,教智能體從零學控制

    3月2日,DeepMind發(fā)表博客文章,提出一種稱為SAC-X(計劃輔助控制)的新學習范式,旨在解決讓AI以最少的
    的頭像 發(fā)表于 03-17 09:12 ?3817次閱讀

    【重磅】DeepMind發(fā)布通用強化學習范式,自主機器人可學會任何任務(wù)

    SAC-X是一種通用的強化學習方法,未來可以應(yīng)用于機器人以外的更廣泛領(lǐng)域
    的頭像 發(fā)表于 03-19 14:45 ?1911次閱讀

    DeepMind開發(fā)了PopArt,解決了不同游戲獎勵機制規(guī)范化的問題

    我們將PopArt應(yīng)用于Importance-weighted Actor-Learner Architecture (IMPALA),這是DeepMind最流行的深度強化學習智能體之一。在實驗中
    的頭像 發(fā)表于 09-16 10:04 ?3174次閱讀

    谷歌、DeepMind重磅推出PlaNet 強化學習新突破

    Google AI 與 DeepMind 合作推出深度規(guī)劃網(wǎng)絡(luò) (PlaNet),這是一個純粹基于模型的智能體,能從圖像輸入中學習世界模型,完成多項規(guī)劃任務(wù),數(shù)據(jù)效率平均提升50倍,強化學習
    的頭像 發(fā)表于 02-17 09:30 ?3352次閱讀
    谷歌、<b class='flag-5'>DeepMind</b>重磅推出PlaNet 強化<b class='flag-5'>學習</b>新突破

    無需數(shù)學就能寫AI,MIT提出AI專用編程語言Gen

    無需數(shù)學就能寫AI,MIT提出AI專用編程語言Gen,為使AI算法開發(fā)初學者更容易進行編程設(shè)計,MIT的研究人員開發(fā)出一種名為“Gen.”的新型概率編程系統(tǒng),無需處理方程式或手動編寫高
    發(fā)表于 07-01 09:58 ?1448次閱讀

    DeepMind的最新AI無需知曉規(guī)則就能掌握游戲

    2016年,Alphabet的DeepMind與AlphaGo一起問世,該AI一直領(lǐng)先于人類最佳Go players。一年后,該子公司繼續(xù)完善其工作,創(chuàng)建了AlphaGo Zero。 在
    的頭像 發(fā)表于 01-05 09:19 ?1514次閱讀

    ICLR 2023 Spotlight|節(jié)省95%訓練開銷,清華黃隆波團隊提出強化學習專用稀疏訓練框架RLx2

    大模型時代,模型壓縮和加速顯得尤為重要。傳統(tǒng)監(jiān)督學習可通過稀疏神經(jīng)網(wǎng)絡(luò)實現(xiàn)模型壓縮和加速,那么同樣需要大量計算開銷的強化學習任務(wù)可以基于稀疏
    的頭像 發(fā)表于 06-11 21:40 ?694次閱讀
    ICLR 2023 Spotlight|節(jié)省95%訓練開銷,清華黃隆波團隊<b class='flag-5'>提出</b>強化<b class='flag-5'>學習</b>專用<b class='flag-5'>稀疏</b>訓練框架RLx2

    語言模型做先驗,統(tǒng)一強化學習智能體,DeepMind選擇走這條通用AI之路

    的發(fā)展,從最早的 AlphaGo、AlphaZero 到后來的多模態(tài)、多任務(wù)、多具身 AI 智能體 Gato,智能體的訓練方法和能力都在不斷演進。 從中不難發(fā)現(xiàn),隨著大模型越來越成為人工智能發(fā)展的主流趨勢,DeepMind 在智能體的開發(fā)中不斷嘗試將強化
    的頭像 發(fā)表于 07-24 16:55 ?541次閱讀
    語言模型做<b class='flag-5'>先驗</b>,統(tǒng)一強化<b class='flag-5'>學習</b>智能體,<b class='flag-5'>DeepMind</b>選擇走這條通用AI之路
    主站蜘蛛池模板: xxxx人成高清免费图片| 激情五月综合网| mm365快播综合网| 色偷偷91综合久久噜噜噜男男| 加勒比综合网| 免费看污黄视频软件| 日本口工禁漫画无遮挡全彩| bt天堂在线www中文在线| 亚洲成人激情电影| 免费永久视频| 亚洲精品视频免费| 日韩在线视频www色| 成年1314在线观看| 亚洲精品影视| 小屁孩和大人啪啪| 狼人久草| 特级毛片s级全部免费| 真实的国产乱xxxx在线| 国产色婷婷亚洲| 黄页网站在线播放| freesex欧美| 欧美成人午夜毛片免费影院| 欧美一级第一免费高清| 国产视频分类| 理论片国产| 黄色爽视频| 日本内谢69xxxx免费| 久久久久久国产精品免费免| 五月婷婷天| 五月欧美激激激综合网色播| 女人被两根一起进3p在线观看| 天天狠天天天天透在线| 亚洲网站大全| 国产性夜夜性夜夜爽91| 国产午夜一区二区在线观看| 久久精品美女| 69xxxx日本老师| 欧美性色综合网| 欧美另类激情| 黄 在线| 综合se|