在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI開放模擬機器人環境和HER算法,讓機器人從失敗中學習

zhKF_jqr_AI ? 來源:未知 ? 作者:李建兵 ? 2018-03-16 11:02 ? 次閱讀

從錯誤中吸取教訓是人類能長久保持優勢的原因之一,即使我們做了失敗的嘗試,但至少有一部分是正確的,總結經驗后也能成功。

機器人也可以使用類似的試錯法學習新任務。通過強化學習,機器人嘗試用不同的方法做一件事,如果嘗試的方法有效則會獲得獎勵。給予獎勵生成的強化,機器人會不斷嘗試直到成功到達目標。

人與機器的不同之處在于我們如何從失敗和成功中學習,從中我們不僅知道哪些東西對實現目標沒有幫助,而且能了解為什么失敗以及之后如何避免。這就使我們能比機器人更有效地學習。

今天,位于美國舊金山的人工智能研究機構OpenAI發布了一款開源算法,名為Hindsight Experience Replay(HER),該算法將失敗作為成功的手段,讓機器人像人類一樣學習。

HER的重要特征是它能像人類一樣,即使沒有達到預期目標,但至少收獲了其他成果。那么為什么不假裝這就是最初想實現的目標呢?

Spectrum IEEE的編輯Evan Ackerman用比喻具體形容了HER的原理:想像一下你正要擊打棒球,目標是全壘打。但是在第一次擊球時,球出界了,雖然沒有做到全壘打,但是你卻知道了一種打出界球的方法。事后通過總結,你可以這么想:“如果我的目標就是打個出界球,那么剛剛的那一記擊球就是完美的!”雖然沒有打出全壘打,但仍然有了進步。

HER的另一個優點是它使用了研究人員所稱的“稀疏獎勵”來指導學習。獎勵是我們如何告訴機器人它們的所作所為對強化學習是好事還是壞事。大多數強化學習算法使用的是“密集獎勵”,機器人根據完成目標的程度獲得不同大小的cookies。這些cookies可以單獨獎勵任務的一個方面,并在某種程度上幫助指導機器人按照指示的方式學習。

密集獎勵很有效,但是部署起來卻有些麻煩,并且在有些情況下并不是那么實用。大多數應用非常關注結果,并且出于實用的目的,你可以從中取得成功,也可能不成功。稀疏獎勵是指,機器人在成功后只得到一個cookie,這樣一來,該程序就更容易測量、編程和實施。但另一方面,這種方法可能會降低學習速度,因為機器人沒有獲得增量反饋,它只是被一遍又一遍地告訴“沒有cookie”,除非它非常幸運地偶然成功了。

這就是HER的基本原理:它讓機器人通過分散獎勵學習,改變原本的目標,把每次嘗試行為都看做成功,所以機器人每次都能學到一些東西。

通過這種方法,強化學習算法可以獲得學習信號,因為它已經實現了一些目標;即使它不是你原本想達到的目標,如果重復這個過程,最終機器人也會實現任意一種目標,包括最初真正的目標。

下面的視頻是HER方法與其他深度學習方法在實踐中的對比,左邊是新開發的HER方法,右邊是T. Lillicrap等人于2015年提出的深度決定性策略梯度(DDPG)方法:

最終的結果對比差別非常大:

HandManipulateBlockRotateXYZ-v0上四個不同配置下的中位測試成功率(曲線)和四分位范圍(陰影部分)。數據繪制于訓練時期,每種配置下每隔五個隨機種子就進行總結

帶有稀疏獎勵的DDPG+HER明顯優于其他所有配置,并且只從稀疏獎勵中學習了成功策略來完成這項具有挑戰性的任務。有趣的是,帶有密集獎勵的DDPG+HER能夠學習,但表現得卻不好。而Vanilla DDPG的兩種配置均不能學習。完整的實驗結果可以在論文中查看。

OpenAI此次發布了八個Gym模擬機器人環境(Gym是OpenAI用于開發和比較強化學習算法的工具包,它能教智能體各種任務,比如走路、打乒乓球或玩彈球等),其中四個用于Fetch研究平臺,四個用于ShadowHand機器人,使用的是MuJoCo物理模擬引擎。

Fetch上的四個環境

機械臂末端以最快速度移動到目標位置

擊中灰色目標,使其滑動到桌上一固定位置

用機械臂末端推動正方體使其到達目標位置

機械臂抓取桌上的正方體,并停留在桌子上方某固定位置

ShadowHand上的四個環境

將拇指和另一個手指移動到指定位置

在手上翻轉正方體直到達到預期位置

在手上翻轉彩蛋直到達到預期位置

在手上轉筆直到達到預期位置

HER的問題

雖然HER對于學習稀疏獎勵的復雜任務是很有前景的方式,但它仍存在改進的空間。和OpenAI最近發布的Request for Research 2.0相似,研究人員針對HER的進步提出了一下幾條想法:

事后自動創建目標。目前的HER使用硬編碼策略選擇目標,如果算法可以自動學習應該會很有趣。

無偏差HER。替換目標以無原則的方式改變了經驗的分布。這種偏差在理論上會導致不穩定,盡管在實踐中還沒有遇到這種情況。

HER+HRL。將HER與最近推出的層次強化學習(HRL)結合起來一定很有趣。這樣一來,HER不僅僅可以應用到目標上,還能應用到較高層次的策略生成的動作上。例如,如果較高層次命令低層次實現目標A,結果實現了目標B,那么我們可以假設高層次原本命令的是目標B。

更豐富的價值函數。擴展最近的研究,并在額外的輸入上調整價值函數,例如折扣因子或成功閾值。

更快的信息傳播。大多數off-policy深度強化學習算法使用目標網絡來穩定訓練。然而,由于改變需要時間傳播,就會限制訓練的速度。我們注意到在我們的實驗中,這是決定DDPG+HER學習速度最重要的因素。

HER+多步驟回報。由于我們更換了目標,HER上的實驗是off-policy的。所以用多步驟回報使用它就變得困難了。然而,多步驟回報能讓信息傳播的速度更快,所以也是可行的。

On-policy HER。目前,HER只能與off-policy算法一起使用。但是,最近的算法如PPO的穩定性非常好。所以我們可以研究一下HER能否與on-policy算法一起使用。

高頻動作的強化學習。目前的強化學習算法對動作過多的案例十分敏感,這就是為什么跳幀技術經常用于雅達利游戲。在連續控制領域,動作頻率越趨近于無窮,性能則越趨近于零。這是由兩個因素造成的:不一致的探索,和需要多次引導來傳播信息。

將HER與強化學習的最近進展相結合。最近,強化學習在多個方面都有了很大進步,它可以和優先經驗回放(Prioritized Experience Replay)、分布強化學習(distributional RL)以及entropy-regularized RL或反向課程生成相結合。

在論文中你可以找到關于新Gym環境應用的更多信息。

使用基于目標的環境

引入“目標”概念需要對現有Gym的API進行一些反向兼容更改:

所有基于目標的環境使用gym.spaces.Dict觀察空間。環境需要包含一個智能體嘗試達到的預期目標(desired_goal)、一個目前已經達到的目標(achieved_goal)、以及實際觀察(observation),例如機器人的狀態。

我們公開環境的獎勵函數以重新計算更換目標之后的獎勵。

下面是在新的基于目標的環境中,執行目標替換時的簡單例子:

import numpy as np

import gym

env = gym.make('FetchReach-v0')

obs = env.reset()

done = False

def policy(observation, desired_goal):

# Here you would implement your smarter policy. In this case,

# we just sample random actions.

return env.action_space.sample()

whilenotdone:

action = policy(obs['observation'], obs['desired_goal'])

obs, reward, done, info = env.step(action)

# If we want, we can substitute a goal here and re-compute

# the reward. For instance, we can just pretend that the desired

# goal was what we achieved all along.

substitute_goal = obs['achieved_goal'].copy()

substitute_reward = env.compute_reward(

obs['achieved_goal'], substitute_goal, info)

print('reward is {}, substitute_reward is {}'.format(

reward, substitute_reward))

新的環境可以使用與Gym兼容的強化學習算法,如Baselines。用gym.wrappers.FlattenDictWrapper將基于字典的觀察空間壓縮成一個數組。

import numpy as np

import gym

env = gym.make('FetchReach-v0')

# Simply wrap the goal-based environment using FlattenDictWrapper

# and specify the keys that you would like to use.

env = gym.wrappers.FlattenDictWrapper(

env, dict_keys=['observation', 'desired_goal'])

# From now on, you can use the wrapper env as per usual:

ob = env.reset()

print(ob.shape) # is now just an np.array

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4615

    瀏覽量

    93025
  • AI
    AI
    +關注

    關注

    87

    文章

    31028

    瀏覽量

    269381
  • 人工智能
    +關注

    關注

    1792

    文章

    47373

    瀏覽量

    238875

原文標題:OpenAI開放模擬機器人環境和HER算法,讓機器人從失敗中學習

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【「具身智能機器人系統」閱讀體驗】2.具身智能機器人的基礎模塊

    具身智能機器人的基礎模塊,這個是本書的第二部分內容,主要分為四個部分:機器人計算系統,自主機器人的感知系統,自主機器人的定位系統,自主機器人
    發表于 01-04 19:22

    《具身智能機器人系統》第10-13章閱讀心得之具身智能機器人計算挑戰

    閱讀《具身智能機器人系統》第10-13章,我對具身智能機器人的工程實踐有了全新認識。第10章從實時性角度剖析了機器人計算加速問題。機器人定位中的SLAM
    發表于 01-04 01:15

    【「具身智能機器人系統」閱讀體驗】2.具身智能機器人大模型

    中取得了令人矚目的效果。 閱讀感悟 傳統的手動編程到借助大模型實現智能化、自主化,單一模態的交互到多模態信息的深度融合,再到擴散模型的應用,機器人控制技術正在以驚人的速度進化。這不僅
    發表于 12-29 23:04

    【「具身智能機器人系統」閱讀體驗】1.初步理解具身智能

    需要理解環境,適應變化的環境國際上來看,已經有不少科技公司發布了自己的機器人產品,大多數應用在安保,物流,制造等場景。 中國在具身智能機器人
    發表于 12-28 21:12

    【「具身智能機器人系統」閱讀體驗】1.全書概覽與第一章學習

    簡單的具身智能機器人的應用案例。具體目錄如下: 第一章學習 具身智能機器人是指能夠在無人工干預下自主執行任務的機器人。相較于傳統非具身智能機器
    發表于 12-27 14:50

    OpenAI探索人形機器人開發

    據報道,OpenAI近年來對機器人技術重新燃起了濃厚的興趣。在過去的一年中,該公司積極投資于機器人硬件和軟件領域的初創公司,如Figure和Physical Intelligence,并重啟了四年
    的頭像 發表于 12-26 10:27 ?261次閱讀

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    和經驗積累,使機器人能夠自主發現工藝規律,優化作業參數。家庭服務機器人則采用混合任務規劃策略:將預訓練的基礎技能與實時規劃相結合,靈活應對開放環境中的各種情況。 第9章深入探討了元
    發表于 12-24 15:03

    【「具身智能機器人系統」閱讀體驗】+數據在具身人工智能中的價值

    出現重大問題。此外,機器人在不同環境中適應和泛化的能力取決于它處理的數據的多樣性。例如,家庭服務機器人必須適應各種家庭環境和任務,要求它們
    發表于 12-24 00:33

    【「具身智能機器人系統」閱讀體驗】+初品的體驗

    學習資源,以培養更多的專業人才。隨著具身智能機器人技術對社會的影響越來越大,該書還可以向公眾普及相關的知識,以提升社會對新技術的認知和接受度,從而為技術的發展創造良好的社會環境。 隨著具身智能
    發表于 12-20 19:17

    《具身智能機器人系統》第1-6章閱讀心得之具身智能機器人系統背景知識與基礎模塊

    搜索策略等規劃算法,強調了軌跡規劃需要考慮機器人的運動學約束。在軌跡規劃中,機器人需要同時考慮最大曲率、加速度限制等物理約束,生成平滑可行的運動軌跡。強化學習在規劃控制中的應用也很有創
    發表于 12-19 22:26

    市場角度對機器人的基本解讀

    自人工智能機器人發展至今,幾乎都是學術方面對機器人進行定義詮釋。現今機器人市場化發展程度已逐步進入多領域不同場景的融合應用,對實際市場已經可以發揮一定的使用價值。為更快的增強
    的頭像 發表于 12-07 01:06 ?256次閱讀
    <b class='flag-5'>從</b>市場角度對<b class='flag-5'>機器人</b>的基本解讀

    鴻蒙機器人與鴻蒙開發板聯動演示

    鴻蒙機器人與鴻蒙開發板聯動演示,機器人的角色為迎賓機器人,開發板負責人賓客出現監聽
    發表于 12-02 14:55

    ROS機器人開發更便捷,基于RK3568J+Debian系統發布!

    。 ROS系統主要特點有哪些 (1) 提供豐富的機器人算法機器人的各種控制以及通信離不開算法庫的支持,ROS系統提供豐富且功能強大的機器人
    發表于 07-09 11:38

    Al大模型機器人

    和迭代來不斷改進自身性能。它們可以用戶交互中學習并根據反饋進行調整,以提高對話質量和準確性。可定制性與整合性: AI大模型機器人可以根據特定需求進行定制和整合,以滿足不同場景和應用的要求。它們可以與其
    發表于 07-05 08:52

    Figure首發OpenAI大模型加持的機器人

    近日,機器人初創公司Figure在業界引起了廣泛關注,該公司成功發布了首個由OpenAI大模型加持的機器人demo。這一創新成果不僅展示了Figure在機器人技術領域的深厚實力,也為整
    的頭像 發表于 03-16 14:21 ?1110次閱讀
    主站蜘蛛池模板: 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 午夜激情婷婷| 国产香蕉精品视频在| bt磁力在线搜索| 久久综合九色欧美综合狠狠| 色宅男午夜电影在线观看| 国产69精品久久| 天天躁狠狠躁| www.色午夜| 午夜精品久久久久久99热7777| 不卡中文字幕在线| 精品伊人久久大线蕉色首页| 日本高清色图| 色综合久久五月| 日日操日日射| 四虎永久免费地址在线网站| 亚洲色图 在线视频| 久久99热久久精品23| 国产黄色小视频| 2019天天操天天干天天透| 国产精品久久久亚洲456| 日本久久黄色| 天天综合网天天综合色不卡| 欧美成人午夜毛片免费影院| 天天操天天搞| 天堂在线最新版在线www| 天天摸夜夜添夜夜添国产| 亚洲黄视频| 午夜影院性| 偷操| 国产精品大片天天看片| 亚洲丝袜一区二区| 日本视频不卡| 免费网站看黄| 男男小说高h| 天堂bt种子资源地址在线| 天天色资料| 美女网站视频一区| 激情六月网| 东方天堂网| 99视频在线永久免费观看|