深度學(xué)習(xí)DL是機器學(xué)習(xí)中一種基于對數(shù)據(jù)進行表征學(xué)習(xí)的方法。深度學(xué)習(xí)DL有監(jiān)督和非監(jiān)督之分,都已經(jīng)得到廣泛的研究和應(yīng)用。強化學(xué)習(xí)RL是通過對未知環(huán)境一邊探索一邊建立環(huán)境模型以及學(xué)習(xí)得到一個最優(yōu)策略。強化學(xué)習(xí)是機器學(xué)習(xí)中一種快速、高效且不可替代的學(xué)習(xí)算法。
深度強化學(xué)習(xí)DRL自提出以來, 已在理論和應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學(xué)習(xí)DRL研發(fā)的AlphaGo,將深度強化學(xué)習(xí)DRL成推上新的熱點和高度,成為人工智能歷史上一個新的里程碑。因此,深度強化學(xué)習(xí)DRL非常值得研究。
深度強化學(xué)習(xí)概念:深度強化學(xué)習(xí)DRL將深度學(xué)習(xí)DL的感知能力和強化學(xué)習(xí)RL的決策能力相結(jié)合, 可以直接根據(jù)輸入的信息進行控制,是一種更接近人類思維方式的人工智能方法。在與世界的正常互動過程中,強化學(xué)習(xí)會通過試錯法利用獎勵來學(xué)習(xí)。它跟自然學(xué)習(xí)過程非常相似,而與深度學(xué)習(xí)不同。在強化學(xué)習(xí)中,可以用較少的訓(xùn)練信息,這樣做的優(yōu)勢是信息更充足,而且不受監(jiān)督者技能限制。
深度強化學(xué)習(xí)DRL是深度學(xué)習(xí)和強化學(xué)習(xí)的結(jié)合。這兩種學(xué)習(xí)方式在很大程度上是正交問題,二者結(jié)合得很好。強化學(xué)習(xí)定義了優(yōu)化的目標,深度學(xué)習(xí)給出了運行機制——表征問題的方式以及解決問題的方式。將強化學(xué)習(xí)和深度學(xué)習(xí)結(jié)合在一起,尋求一個能夠解決任何人類級別任務(wù)的代理,得到了能夠解決很多復(fù)雜問題的一種能力——通用智能。深度強化學(xué)習(xí)DRL將有助于革新AI領(lǐng)域,它是朝向構(gòu)建對視覺世界擁有更高級理解的自主系統(tǒng)邁出的一步。從某種意義上講,深度強化學(xué)習(xí)DRL是人工智能的未來。
深度強化學(xué)習(xí)本質(zhì):深度強化學(xué)習(xí)DRL的Autonomous Agent使用強化學(xué)習(xí)的試錯算法和累計獎勵函數(shù)來加速神經(jīng)網(wǎng)絡(luò)設(shè)計。這些設(shè)計為很多依靠監(jiān)督/無監(jiān)督學(xué)習(xí)的人工智能應(yīng)用提供支持。它涉及對強化學(xué)習(xí)驅(qū)動Autonomous Agent的使用,以快速探索與無數(shù)體系結(jié)構(gòu)、節(jié)點類型、連接、超參數(shù)設(shè)置相關(guān)的性能權(quán)衡,以及對深度學(xué)習(xí)、機器學(xué)習(xí)和其他人工智能模型設(shè)計人員可用的其它選擇。
深度強化學(xué)習(xí)原理:深度Q網(wǎng)絡(luò)通過使用深度學(xué)習(xí)DL和強化學(xué)習(xí)RL兩種技術(shù),來解決在強化學(xué)習(xí)RL中使用函數(shù)逼近的基本不穩(wěn)定性問題:經(jīng)驗重放和目標網(wǎng)絡(luò)。經(jīng)驗重放使得強化學(xué)習(xí)RL智能體能夠從先前觀察到的數(shù)據(jù)離線進行抽樣和訓(xùn)練。這不僅大大減少了環(huán)境所需的交互量,而且可以對一批經(jīng)驗進行抽樣,減少學(xué)習(xí)更新的差異。此外,通過從大存儲器均勻采樣,可能對強化學(xué)習(xí)RL算法產(chǎn)生不利影響的時間相關(guān)性被打破了。最后,從實際的角度看,可以通過現(xiàn)代硬件并行地高效地處理批量的數(shù)據(jù),從而提高吞吐量。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47279瀏覽量
238513 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8418瀏覽量
132646 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121170
發(fā)布評論請先 登錄
相關(guān)推薦
評論