精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索 原創(chuàng)

發(fā)布于 2024-9-29 10:53
瀏覽
0收藏

本文將全面探討在網(wǎng)格環(huán)境下,模仿學(xué)習(xí)中一些著名方法的測(cè)試運(yùn)行與結(jié)果對(duì)比分析。

簡(jiǎn)介

強(qiáng)化學(xué)習(xí)(RL)是機(jī)器學(xué)習(xí)的一個(gè)分支,圍繞通過(guò)標(biāo)量信號(hào)(獎(jiǎng)勵(lì))的指導(dǎo)進(jìn)行學(xué)習(xí);這與監(jiān)督學(xué)習(xí)是不同的,監(jiān)督學(xué)習(xí)需要目標(biāo)變量的完整標(biāo)簽。

我們可以通過(guò)一個(gè)直觀的例子來(lái)解釋強(qiáng)化學(xué)習(xí)。比如一所學(xué)校有兩個(gè)班,連續(xù)重復(fù)兩種類型的測(cè)試。第一個(gè)班完成了測(cè)試并獲得了完整的正確答案(監(jiān)督學(xué)習(xí):SL)。第二個(gè)班也完成了測(cè)試,但是只得到每個(gè)問(wèn)題的分?jǐn)?shù)(強(qiáng)化學(xué)習(xí):RL)。在第一種情況下,學(xué)生似乎更容易學(xué)習(xí)正確的答案并記住它們。在第二個(gè)班上,任務(wù)更難,因?yàn)樗麄冎荒芡ㄟ^(guò)反復(fù)試驗(yàn)來(lái)學(xué)習(xí)。然而,他們的學(xué)習(xí)將更加穩(wěn)健,因?yàn)樗麄儾粌H知道什么是正確的,而且知道要避免的所有錯(cuò)誤答案。

為了有效地使用RL進(jìn)行學(xué)習(xí),應(yīng)該設(shè)計(jì)一個(gè)準(zhǔn)確的獎(jiǎng)勵(lì)信號(hào)(成績(jī)),這被認(rèn)為是一項(xiàng)艱巨的任務(wù),特別是對(duì)于現(xiàn)實(shí)世界的應(yīng)用程序而言。例如,人類專家級(jí)的司機(jī)知道如何駕駛,但不能為“正確駕駛”技能設(shè)定獎(jiǎng)勵(lì)機(jī)制,而烹飪或繪畫(huà)等領(lǐng)域也是如此。這就產(chǎn)生了對(duì)模仿學(xué)習(xí)方法(IL:imitation learning)的需求。IL是RL的一個(gè)新分支,它只關(guān)注從專家軌跡中學(xué)習(xí),而不知道回報(bào)。當(dāng)前,IL的主要應(yīng)用領(lǐng)域是機(jī)器人和自動(dòng)駕駛領(lǐng)域。

在下文中,我們將探討本文參考文獻(xiàn)中提出的一些最著名的IL方法,按其提出時(shí)間從舊到新進(jìn)行排序,如下圖所示。

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

IL方法發(fā)明的時(shí)間順序表

注意,下文中數(shù)學(xué)公式將與符號(hào)的命名一起顯示。而且,這里給出的理論推導(dǎo)僅保持在最低限度。因此,如果您還需要更深入的了解,可以在末尾的參考文獻(xiàn)部分查找原始參考文獻(xiàn)。在本文隨附的Github倉(cāng)庫(kù)中也提供了重新創(chuàng)建本文介紹方法的所有有關(guān)實(shí)驗(yàn)的完整代碼。

接下來(lái),讓我們開(kāi)始深入學(xué)習(xí)模仿學(xué)習(xí),從行為克隆(BC)到信息最大化生成對(duì)抗模仿學(xué)習(xí)(InfoGAIL)。

試驗(yàn)環(huán)境

本文中使用的試驗(yàn)環(huán)境表示為一個(gè)15x15大小的網(wǎng)格。具體的環(huán)境狀態(tài)定義如下圖所示:

  • 智能體:紅色
  • 初始智能體位置:藍(lán)色
  • 墻壁:綠色

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

智能體的目標(biāo)是通過(guò)三個(gè)窗口中的任何一個(gè),以最短的方式到達(dá)第一行,并朝向相對(duì)于穿過(guò)網(wǎng)格中間的垂直軸的初始位置的對(duì)稱位置。目標(biāo)位置不會(huì)顯示在狀態(tài)網(wǎng)格中。

因此,初始位置只有15種可能性,目標(biāo)位置也會(huì)因此而改變。

動(dòng)作空間

動(dòng)作空間A由0到4的離散數(shù)組成,表示四個(gè)方向的運(yùn)動(dòng)和停止動(dòng)作,如下圖所示:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

獎(jiǎng)勵(lì)函數(shù)

這里的真實(shí)數(shù)據(jù)獎(jiǎng)勵(lì)R(s,a)是一個(gè)描述當(dāng)前狀態(tài)和動(dòng)作的函數(shù),其值等于朝向目標(biāo)的位移距離:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

在上面公式中,p1表示舊位置,p2表示新位置。智能體將始終在最后一行初始化,但每次都在隨機(jī)位置。

專家策略

用于本文中所介紹的所有方法(InfoGAIL除外)的專家策略都是為了以最短的路徑實(shí)現(xiàn)目標(biāo)。這涉及三個(gè)步驟:

  1. 向最近的窗口移動(dòng)
  2. 直接朝著目標(biāo)前進(jìn)
  3. 在目標(biāo)位置停止運(yùn)動(dòng)

此行為可由下面GIF動(dòng)畫(huà)來(lái)演示:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

使用專家策略生成其他IL方法使用的演示軌跡(每個(gè)軌跡τ都表示為狀態(tài)動(dòng)作元組的有序序列)

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,專家演示集定義為D={τ0,?,τn}

對(duì)于每30個(gè)情節(jié)——每個(gè)情節(jié)用32步,專家級(jí)平均情節(jié)回報(bào)率為16.33±6。

正向強(qiáng)化學(xué)習(xí)

首先,我們將使用真實(shí)獎(jiǎng)勵(lì)值來(lái)訓(xùn)練一個(gè)模型,以便設(shè)置一些基準(zhǔn)參數(shù)和調(diào)整超參數(shù),方便后面與IL方法一起使用。

本文中使用的正向強(qiáng)化學(xué)習(xí)算法的實(shí)現(xiàn)基于Clean RL腳本(參考文獻(xiàn)12),該腳本提供了強(qiáng)化方法的詳細(xì)實(shí)現(xiàn)細(xì)節(jié)。

簡(jiǎn)介

我們將分別測(cè)試近端策略優(yōu)化(PPO)(參考文獻(xiàn)2)和深度Q網(wǎng)絡(luò)(DQN)(參考文獻(xiàn)1),這兩種方法是目前為止最先進(jìn)的同策略強(qiáng)化方法和眾所周知的異策略強(qiáng)化方法。

以下介紹每種方法的訓(xùn)練步驟及其特征歸納。

同策略——近端策略優(yōu)化(PPO)算法

此方法使用正在訓(xùn)練的當(dāng)前策略,并在收集每個(gè)episode(情景)的推出后更新其參數(shù)。PPO算法有兩個(gè)主要部分組成:評(píng)論家和演員。其中,演員代表策略,而評(píng)論家則為每個(gè)狀態(tài)提供價(jià)值估計(jì),并為其更新目標(biāo)。

異策略——深度Q網(wǎng)絡(luò)(DQN)算法

DQN算法通過(guò)使用epsilon貪婪探索在重放緩沖區(qū)中收集卷展(rollouts)來(lái)離線訓(xùn)練其策略。這意味著,DQN算法并不總是根據(jù)每個(gè)狀態(tài)的當(dāng)前策略采取最佳動(dòng)作,而是選擇隨機(jī)動(dòng)作,這使得探索不同的解決方案成為可能。在這種算法中,可以把一個(gè)額外的目標(biāo)網(wǎng)絡(luò)與更新頻率較低的策略版本一起使用,以便使學(xué)習(xí)目標(biāo)更加穩(wěn)定。

試驗(yàn)結(jié)果和討論

下圖顯示了上述兩種方法的情景回報(bào)曲線。其中,DQN方法使用黑色顯示,而PPO方法顯示為橙色線。

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

對(duì)于這個(gè)簡(jiǎn)單的例子:

  • PPO和DQN都收斂,但PPO略有優(yōu)勢(shì)。這兩種方法都沒(méi)有達(dá)到16.6的專家級(jí)水平(PPO方法接近15.26)。
  • DQN在相互步驟方面似乎收斂較慢;與PPO相比,這被稱為樣本低效。
  • PPO需要更長(zhǎng)的訓(xùn)練時(shí)間,這可能是由于演員-評(píng)論家訓(xùn)練對(duì)兩個(gè)目標(biāo)不同的網(wǎng)絡(luò)進(jìn)行更新的緣故。

兩種方法的訓(xùn)練參數(shù)基本相同。如果您想更仔細(xì)地了解這些曲線是如何生成的,請(qǐng)查看本文附帶存儲(chǔ)庫(kù)中的腳本文件ppo.py和dqn.py。

行為克隆(BC)

行為克隆首次在參考文獻(xiàn)4中提出,是一種直接的模仿學(xué)習(xí)方法。這種方法中應(yīng)用了監(jiān)督學(xué)習(xí)技術(shù),將每個(gè)狀態(tài)映射到基于專家演示的動(dòng)作D。這種方法將目標(biāo)定義為:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,πbc代表訓(xùn)練好的策略,πE代表專家策略,l(πbc(s),πE(s))表示專家和訓(xùn)練過(guò)的策略在響應(yīng)相同狀態(tài)時(shí)的損失函數(shù)。

BC和監(jiān)督學(xué)習(xí)之間的區(qū)別在于將問(wèn)題定義為一個(gè)交互式環(huán)境;在這個(gè)環(huán)境中,BC根據(jù)動(dòng)態(tài)的狀態(tài)(例如,機(jī)器人朝著目標(biāo)移動(dòng))采取動(dòng)作。相比之下,監(jiān)督學(xué)習(xí)則是將輸入映射到輸出,如對(duì)圖像進(jìn)行分類或預(yù)測(cè)溫度。這種區(qū)別在參考文獻(xiàn)8中有所解釋。

在此實(shí)現(xiàn)中,智能體的所有初始位置僅包含15種可能性。因此,只有15條軌跡可以學(xué)習(xí),BC網(wǎng)絡(luò)可以有效地記憶這些軌跡。為了使問(wèn)題更難解決,我們將訓(xùn)練數(shù)據(jù)集D的大小減半(480個(gè)“狀態(tài)-動(dòng)作”對(duì)中只使用了240個(gè)),并對(duì)本文中后續(xù)的所有模仿學(xué)習(xí)方法都采取這種處理辦法。

訓(xùn)練結(jié)果

在完成模型訓(xùn)練后(如bc.py腳本所示),我們得到的平均情景回報(bào)率為11.49,標(biāo)準(zhǔn)差為5.24。

這比以前的正向強(qiáng)化方法要少得多。以下GIF動(dòng)畫(huà)顯示了訓(xùn)練好的BC模型的實(shí)際應(yīng)用情況。

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

從此GIF中可以明顯看出,近三分之二的軌跡已經(jīng)學(xué)會(huì)了穿過(guò)墻壁。然而,該模型陷入了最后三分之一的困境,因?yàn)樗鼰o(wú)法從前面的例子中推斷出真正的策略,特別是因?yàn)樗坏玫搅?5個(gè)專家軌跡中的一半來(lái)學(xué)習(xí)。

最大熵逆強(qiáng)化學(xué)習(xí)(MaxENT)

除了行為克隆(BC)方法之外,MaxEnt(參考文獻(xiàn)3)是另一種單獨(dú)訓(xùn)練獎(jiǎng)勵(lì)模型的方法(不是迭代)。其主要思想在于基于當(dāng)前的獎(jiǎng)勵(lì)函數(shù),對(duì)專家軌跡的概率進(jìn)行最大化計(jì)算。這可以表示為:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,N表示軌跡長(zhǎng)度,Z表示給定策略下所有可能軌跡之和的歸一化常數(shù)。

該方法基于最大熵定理(參考文獻(xiàn)3)推斷其主要目標(biāo);該定理指出,滿足給定條件的最具代表性的策略就是具有最高熵H的策略。因此,MaxEnt需要使用一個(gè)額外的目標(biāo)來(lái)最大化策略的熵。這就又產(chǎn)生了下面這樣一個(gè)公式:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

此公式中使用了導(dǎo)數(shù):

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,SVD表示狀態(tài)訪問(wèn)頻率;在給定當(dāng)前策略的情況下,可以用動(dòng)態(tài)規(guī)劃算法來(lái)計(jì)算這個(gè)值。

在MaxEnt方法的實(shí)現(xiàn)中,我們沒(méi)有使用新獎(jiǎng)勵(lì)的訓(xùn)練,因?yàn)閯?dòng)態(tài)編程算法會(huì)很慢很長(zhǎng)。相反,我們選擇通過(guò)像前一個(gè)過(guò)程一樣重新訓(xùn)練BC模型來(lái)測(cè)試最大化熵的主要思想,但在損失中增加了推斷動(dòng)作分布的負(fù)熵項(xiàng)。熵應(yīng)該是負(fù)的,因?yàn)槲覀兿Mㄟ^(guò)最小化損失來(lái)最大化它。

訓(xùn)練結(jié)果

在將權(quán)重為0.5的動(dòng)作分布的負(fù)熵相加后(選擇正確的值很重要;否則,可能會(huì)導(dǎo)致學(xué)習(xí)效果變差),我們看到比之前的BC模型的性能略有改善,現(xiàn)在的平均情景回報(bào)率為11.56(+0.07)。之所以訓(xùn)練結(jié)果略有改進(jìn)是因?yàn)槲覀兪褂昧撕?jiǎn)單的環(huán)境,此環(huán)境包含的狀態(tài)數(shù)量實(shí)在有限。如果狀態(tài)空間變大一些的話,熵的重要性預(yù)計(jì)會(huì)更大。

生成對(duì)抗模仿學(xué)習(xí)(GAIL)

生成對(duì)抗模仿學(xué)習(xí)(GAIL)的最初工作(參考文獻(xiàn)5)受到了生成對(duì)抗網(wǎng)絡(luò)(GANs)概念的啟發(fā),GANs應(yīng)用對(duì)抗訓(xùn)練的思想來(lái)增強(qiáng)主模型的生成能力。同樣,在GAIL中,該概念被應(yīng)用于匹配訓(xùn)練策略和專家策略之間的狀態(tài)動(dòng)作分布。

這可以推導(dǎo)為Kullback-Leibler散度,如論文(參考文獻(xiàn)5)所示。這篇論文最終得出這兩種模型(在GAIL中稱為生成器和鑒別器模型)的主要目標(biāo)為:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,Dt代表鑒別器,πθ代表生成器模型(即訓(xùn)練中的策略),πe代表專家策略,H(πθ)代表生成器模型的熵。

這里,鑒別器充當(dāng)二進(jìn)制分類器,而生成器則對(duì)應(yīng)于正在訓(xùn)練的實(shí)際策略模型。

GAIL的主要優(yōu)勢(shì)

與以前的幾種方法相比,GAIL方法的主要好處(以及它表現(xiàn)更好的原因)在于它的交互式訓(xùn)練過(guò)程。訓(xùn)練好的策略在鑒別器的獎(jiǎng)勵(lì)信號(hào)的指導(dǎo)下學(xué)習(xí)和探索不同的狀態(tài)。

訓(xùn)練結(jié)果

在對(duì)GAIL模型訓(xùn)練160萬(wàn)步后,該模型收斂到比BC和MaxEnt模型更高的水平。如果繼續(xù)訓(xùn)練的話,可以取得更好的成績(jī)。

具體來(lái)說(shuō),訓(xùn)練中我們獲得了平均12.8的情節(jié)獎(jiǎng)勵(lì),考慮到只有50%的演示沒(méi)有任何真正的獎(jiǎng)勵(lì),這是值得注意的一點(diǎn)。

下圖顯示了GAIL的訓(xùn)練曲線(y軸上標(biāo)有真實(shí)情景獎(jiǎng)勵(lì)值)。值得注意的是,由于GAIL的對(duì)抗性訓(xùn)練性質(zhì),來(lái)自log(D(s,a))的獎(jiǎng)勵(lì)計(jì)算結(jié)果可能會(huì)比真實(shí)獎(jiǎng)勵(lì)值更混一些。

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

對(duì)抗反向強(qiáng)化學(xué)習(xí)(AIRL)

GAIL的一個(gè)遺留問(wèn)題是,訓(xùn)練好的獎(jiǎng)勵(lì)模型(鑒別器)實(shí)際上并不代表實(shí)際獎(jiǎng)勵(lì)值。相反,鑒別器被訓(xùn)練為專家和生成器狀態(tài)動(dòng)作對(duì)之間的二元分類器,其平均值為0.5。這意味著,鑒別器只能被視為替代獎(jiǎng)勵(lì)。

為了解決這個(gè)問(wèn)題,參考文獻(xiàn)6中的論文使用以下公式重新表述了鑒別器:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

其中,fω(s,a)應(yīng)收斂到實(shí)際優(yōu)勢(shì)函數(shù)。在這個(gè)例子中,這個(gè)值表示智能體離不可見(jiàn)目標(biāo)有多近。注意,通過(guò)添加另一個(gè)術(shù)語(yǔ)以便包含已經(jīng)成形的獎(jiǎng)勵(lì)值的方法,有助于找到真實(shí)獎(jiǎng)勵(lì)值;然而,對(duì)于這個(gè)實(shí)驗(yàn),我們將僅限于上述優(yōu)勢(shì)函數(shù)。

訓(xùn)練結(jié)果

使用與GAIL相同的參數(shù)訓(xùn)練AIRL模型后,我們得到了以下訓(xùn)練曲線:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

值得注意的是,在相同的訓(xùn)練步驟(160萬(wàn)步)下,由于訓(xùn)練鑒別器的復(fù)雜性增加,AIRL的收斂速度較慢。然而,現(xiàn)在我們有了一個(gè)有意義的優(yōu)勢(shì)函數(shù),盡管只有10.8的情節(jié)獎(jiǎng)勵(lì),但訓(xùn)練結(jié)果仍然還是相當(dāng)不錯(cuò)的。

讓我們比較一下這個(gè)優(yōu)勢(shì)函數(shù)和真實(shí)獎(jiǎng)勵(lì)值,以便與專家演示結(jié)果對(duì)應(yīng)。為了使這些值更具可比性,我們還對(duì)學(xué)習(xí)到的優(yōu)勢(shì)函數(shù)fω的值進(jìn)行了歸一化。由此,我們得到了下圖:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

在該圖中,有15個(gè)脈沖對(duì)應(yīng)于智能體的15個(gè)初始狀態(tài)。在圖的后半部分,我們可以看到訓(xùn)練模型中存在更大的誤差,這是由于在訓(xùn)練中只使用了一半的專家演示。

在圖形的前半部分,我們觀察到當(dāng)智能體在目標(biāo)處?kù)o止且獎(jiǎng)勵(lì)為零時(shí)的低狀態(tài),而在訓(xùn)練模型中計(jì)算結(jié)果表示為高值。在圖形的后半部分,計(jì)算結(jié)果表示為較低的值。

總體來(lái)看,學(xué)習(xí)函數(shù)大致遵循了真實(shí)獎(jiǎng)勵(lì)值規(guī)律,并使用AIRL恢復(fù)了有關(guān)它的有用信息。

信息最大化GAIL(InfoGAIL)

盡管前面的幾種方法取得了一些進(jìn)步,但是模仿學(xué)習(xí)中仍然存在一個(gè)重要問(wèn)題:多模態(tài)學(xué)習(xí)。為了將IL應(yīng)用于實(shí)際問(wèn)題,有必要學(xué)習(xí)多種可能的專家策略。例如,在開(kāi)車或踢足球時(shí),沒(méi)有一種“真正”的做事方式;專家們的方法各不相同,IL模型應(yīng)該能夠始終如一地學(xué)習(xí)這些變化。

為了解決這個(gè)問(wèn)題,人們又開(kāi)發(fā)了InfoGAIL模型算法(參考文獻(xiàn)7)。受InfoGAN(參考文獻(xiàn)11)的啟發(fā),InfoGAN使用額外的風(fēng)格向量來(lái)調(diào)節(jié)GAN生成的輸出風(fēng)格,InfoGAIL在GAIL目標(biāo)的基礎(chǔ)上增加了另一個(gè)標(biāo)準(zhǔn):對(duì)狀態(tài)-動(dòng)作對(duì)和新的控制輸入向量z之間的互信息進(jìn)行最大化處理。這個(gè)目標(biāo)可以推導(dǎo)成如下形式:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

Kullback-Leibler散度

其中,估計(jì)后驗(yàn)p(z∣s,a)用一個(gè)新的模型Q近似,該模型以(s,a)為輸入,輸出z。

InfoGAIL的最終目標(biāo)函數(shù)可以表示成如下形式:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

結(jié)果是,策略中包含了一個(gè)額外的輸入,即z,如下圖所示:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

在我們的實(shí)驗(yàn)中,我們生成了新的多模態(tài)專家演示,每個(gè)專家只能從一個(gè)缺口(墻上的三個(gè)缺口中的一個(gè))進(jìn)入,而不管他們的目標(biāo)是什么。實(shí)驗(yàn)中,我們使用了完整的演示集,但是沒(méi)有標(biāo)注是哪位專家在做動(dòng)作。z變量是一個(gè)單熱編碼向量,表示成一個(gè)具有三個(gè)元素的專家類(例如,左門為[1 0 0])。此時(shí),策略應(yīng)該是:

  • 學(xué)會(huì)朝著目標(biāo)前進(jìn)。
  • 將隨機(jī)生成的z值鏈接到不同模式的專家(從而通過(guò)不同的門)。
  • Q模型應(yīng)該能夠根據(jù)每個(gè)狀態(tài)下的動(dòng)作方向來(lái)檢測(cè)它是哪種模式。

請(qǐng)注意,由于對(duì)抗性訓(xùn)練,鑒別器、Q模型和策略模型訓(xùn)練結(jié)果圖都表現(xiàn)得有些混亂。

幸運(yùn)的是,我們清楚地學(xué)習(xí)了這兩種模式。無(wú)論是通過(guò)策略方法還是Q模型方法都沒(méi)有識(shí)別出第三種模式。以下三個(gè)GIF動(dòng)畫(huà)顯示了在給定不同z值時(shí)從InfoGAIL學(xué)習(xí)到的專家模式情況:

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

z=[1,0,0]

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

z=[0,1,0]

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

z=[0,0,1]

最終,上述策略能夠收斂到經(jīng)過(guò)80萬(wàn)個(gè)訓(xùn)練步后大約結(jié)果為10的情節(jié)獎(jiǎng)勵(lì)。通過(guò)增加更多的訓(xùn)練步驟的話,應(yīng)該能夠獲得更好的訓(xùn)練結(jié)果,即使本例中使用的專家方案不是最佳的。

歸納

當(dāng)回顧我們上面做過(guò)的所有實(shí)驗(yàn)時(shí),結(jié)論很明顯,所有模仿學(xué)習(xí)方法在情景獎(jiǎng)勵(lì)標(biāo)準(zhǔn)方面都表現(xiàn)良好。下表總結(jié)了它們各自的表現(xiàn)成績(jī):

基于網(wǎng)格環(huán)境的模仿學(xué)習(xí)技術(shù)實(shí)戰(zhàn)探索-AI.x社區(qū)

因?yàn)閷<已菔臼腔诙嗄B(tài)專家的,所以InfoGAIL的結(jié)果不具有可比性

該表顯示,GAIL在我們給定的問(wèn)題上表現(xiàn)最佳,而AIRL由于其引入了新的獎(jiǎng)勵(lì)公式而表現(xiàn)得速度較慢,導(dǎo)致回報(bào)率較低。另外,InfoGAIL也學(xué)得很好,但很難識(shí)別所有三種專家模式。

結(jié)論

總之,模仿學(xué)習(xí)成為當(dāng)下一個(gè)具有挑戰(zhàn)性和吸引力的領(lǐng)域。我們?cè)诒疚闹刑剿鞯姆椒ㄟm用于網(wǎng)格模擬環(huán)境,但可能無(wú)法直接轉(zhuǎn)化為現(xiàn)實(shí)世界的應(yīng)用程序。除了一些行為克隆方法外,模仿學(xué)習(xí)的實(shí)際應(yīng)用仍處于起步階段。將模擬與現(xiàn)實(shí)聯(lián)系起來(lái)會(huì)因其性質(zhì)的差異而引入新的錯(cuò)誤。

模仿學(xué)習(xí)的另一個(gè)公開(kāi)挑戰(zhàn)是多智能體模仿學(xué)習(xí)。MAIRL(參考文獻(xiàn)9)和MAGAIL(參考文獻(xiàn)10)等人已經(jīng)對(duì)多智能體環(huán)境進(jìn)行了研究實(shí)驗(yàn),但從多個(gè)專家軌跡中學(xué)習(xí)的一般理論目前仍然是一個(gè)懸而未決的問(wèn)題。

最后,我在GitHub上提供的存儲(chǔ)庫(kù)(http://github.com/engyasin/ilsurvey)提供了實(shí)現(xiàn)本文中介紹的所有方法的基本代碼實(shí)現(xiàn),可以進(jìn)行輕松擴(kuò)展。該代碼將會(huì)在未來(lái)進(jìn)行更新。如果您有興趣做出相關(guān)貢獻(xiàn)的話,您可以提交一個(gè)問(wèn)題或拉取請(qǐng)求,并附上您的修改結(jié)果。

【注】除非另有說(shuō)明;否則,本文中所有圖片均由作者本人自己提供。

參考文獻(xiàn)

[1] Mnih, V. (2013). Playing atari with deep reinforcement learning. arXiv preprint arXiv:1312.5602.

[2] Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347.

[3] Ziebart, B. D., Maas, A. L., Bagnell, J. A., & Dey, A. K. (2008, July). Maximum entropy inverse reinforcement learning. In Aaai (Vol. 8, pp. 1433–1438).

[4] Bain, M., & Sammut, C. (1995, July). A Framework for Behavioural Cloning. In Machine Intelligence 15 (pp. 103–129).

[5] Ho, J., & Ermon, S. (2016). Generative adversarial imitation learning. Advances in neural information processing systems, 29.

[6] Fu, J., Luo, K., & Levine, S. (2017). Learning robust rewards with adversarial inverse reinforcement learning. arXiv preprint arXiv:1710.11248.

[7] Li, Y., Song, J., & Ermon, S. (2017). Infogail: Interpretable imitation learning from visual demonstrations. Advances in neural information processing systems, 30.

[8] Osa, T., Pajarinen, J., Neumann, G., Bagnell, J. A., Abbeel, P., & Peters, J. (2018). An algorithmic perspective on imitation learning. Foundations and Trends? in Robotics, 7(1–2), 1–179.

[9] Yu, L., Song, J., & Ermon, S. (2019, May). Multi-agent adversarial inverse reinforcement learning. In International Conference on Machine Learning (pp. 7194–7201). PMLR.

[10] Song, J., Ren, H., Sadigh, D., & Ermon, S. (2018). Multi-agent generative adversarial imitation learning. Advances in neural information processing systems, 31.

[11] Chen, X., Duan, Y., Houthooft, R., Schulman, J., Sutskever, I., & Abbeel, P. (2016). Infogan: Interpretable representation learning by information maximizing generative adversarial nets. Advances in neural information processing systems, 29.

[12] Huang, S., Dossa, R. F. J., Ye, C., Braga, J., Chakraborty, D., Mehta, K., & Ara??jo, J. G. (2022). Cleanrl: High-quality single-file implementations of deep reinforcement learning algorithms. Journal of Machine Learning Research, 23(274), 1–18.

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計(jì)算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:??Hands-On Imitation Learning: From Behavior Cloning to Multi-Modal Imitation Learning??,作者:Yasin Yousif

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
糖心vlog在线免费观看| 日韩美女视频免费看| 天堂在线精品视频| 国产福利在线免费观看| 91丨porny丨在线| 国产精品久久久久久久7电影| 少妇愉情理伦三级| 亚洲一区二区三区日本久久九| 亚洲二区在线观看| 台湾成人av| wwwav网站| 日韩高清不卡一区二区| 美女精品久久久| 国产精品无码永久免费不卡| www.成人在线.com| 欧美三级免费观看| 青青草免费在线视频观看| 深夜福利在线视频| 国产成人在线电影| 国产精品久久久久9999| 久久精品国产亚洲AV无码麻豆| 欧美日中文字幕| 欧美精品一区二区三区四区| xxxx一级片| а√天堂8资源中文在线| 中文字幕欧美一区| 欧美日韩一区二区三区在线观看免| 国产精品久久久久久在线| 国产免费成人| 久久99亚洲热视| 五月婷婷欧美激情| 亚洲自拍都市欧美小说| 欧美成va人片在线观看| 天堂av在线8| 怡红院成人在线| 精品久久久久国产| 在线观看18视频网站| 在线观看黄色av| 国产亚洲一区二区三区在线观看| 国产精品国产三级国产专区53 | 在线观看国产一级片| av电影免费在线看| 亚洲人成网站影音先锋播放| 亚欧精品在线| 亚洲aⅴ在线观看| 99视频超级精品| 国产成人av一区二区三区| 国产日本精品视频| 精品午夜久久福利影院| 国产精品美女999| 国产一卡二卡三卡| 午夜在线视频观看日韩17c| 性金发美女69hd大尺寸| 欧美人妻一区二区| 午夜久久影院| 欧美激情精品久久久久久大尺度| 国产三级国产精品国产国在线观看 | 亚洲午夜av| 欧美人与性动交a欧美精品| 欧美激情图片小说| 影音先锋日韩在线| 欧美激情视频在线观看| 久久久久久久久久网站| 综合国产在线| 欧美激情性做爰免费视频| 欧美成人三级在线观看| 亚洲小说区图片区| 77777亚洲午夜久久多人| 日韩大片免费在线观看| 国产一级一区二区| 国产成人鲁鲁免费视频a| 做爰无遮挡三级| 精品一区二区三区在线视频| 亚洲一区二区三区四区在线播放| 亚洲成人黄色片| 成人app下载| 欧美一级爽aaaaa大片| 粉嫩av在线播放| 亚洲精品水蜜桃| 天堂8在线天堂资源bt| 成人影院在线视频| 91福利精品第一导航| 一区二区免费av| 日韩视频一区二区三区四区| 亚洲精品国产欧美| 免费视频91蜜桃| 综合天堂久久久久久久| 韩国视频理论视频久久| 在线免费观看国产精品| 国产麻豆一精品一av一免费| 国产亚洲一区在线播放| 高清av电影在线观看| 一区二区三区高清不卡| 日韩久久一级片| 91嫩草国产线观看亚洲一区二区| 精品噜噜噜噜久久久久久久久试看| 中文字幕一区二区久久人妻网站| 精品国产乱码久久久久久果冻传媒 | 天堂va欧美va亚洲va老司机| 亚洲欧美日本伦理| 久久视频在线直播| 久久久久久少妇| 精品午夜一区二区三区在线观看| 精品亚洲欧美日韩| 成人在线播放| 91福利资源站| 中国极品少妇videossexhd| 9999国产精品| 日韩av免费网站| jlzzjlzz亚洲女人18| 久久久久久9999| 欧美亚洲色图视频| 欧美成人xxxx| 日韩毛片在线观看| 欧美日韩在线视频免费| 日本 国产 欧美色综合| 精品无码久久久久国产| 最新超碰在线| 91久久国产综合久久| zjzjzjzjzj亚洲女人| 久久电影院7| 国产成人精品久久二区二区91| www.超碰在线.com| 国产精品久久精品日日| 免费日韩中文字幕| 美国十次av导航亚洲入口| 欧美成人一二三| 中文字幕永久免费视频| 26uuu国产电影一区二区| 99热久久这里只有精品| 3d动漫一区二区三区在线观看| 亚洲色图综合久久| 可以在线观看av的网站| 国产91露脸合集magnet| 艳母动漫在线观看| 国产成人精品一区二区三区视频| 亚洲美女又黄又爽在线观看| 国产成人无码精品久在线观看 | 狠狠躁夜夜躁人人爽天天天天97 | 国产主播第一页| 91丨porny丨户外露出| 日本xxxxxxxxxx75| 亚洲高清在线一区| 欧美成人全部免费| 国产视频手机在线观看| 国产精品白丝在线| 911福利视频| 99精品视频精品精品视频| 国产精品久久久久久久午夜| 国产日韩精品在线看| 日本久久电影网| www.超碰97| 久久高清国产| 日韩啊v在线| 国外成人福利视频| 色777狠狠综合秋免鲁丝 | 91精品国产综合久久久久久漫画| 国产精品久久免费观看| 热久久免费视频| 亚洲欧美日本国产有色| 日韩黄色三级| 欧美另类极品videosbest最新版本| av网站在线免费看| 亚洲香肠在线观看| 欧美深性狂猛ⅹxxx深喉| 国产欧美高清| 日韩亚洲欧美精品| 日韩黄色在线| 欧美精品久久久久久久久| 人妻无码中文字幕| 欧美日韩国产专区| 亚洲综合欧美综合| 国产一区二区三区四区五区美女| 妺妺窝人体色www看人体| 欧美在线导航| 国产精品普通话| 2024最新电影在线免费观看| 亚洲成人网av| 免费在线不卡av| 亚洲欧美另类在线| 91精品小视频| 美女视频网站黄色亚洲| 日韩中文在线字幕| 免费电影一区二区三区| 成人性生交xxxxx网站| 2019中文字幕在线电影免费 | 亚洲最大福利视频网| av有码在线观看| 亚洲最大中文字幕| 亚洲av无码一区二区乱子伦| 一本大道av伊人久久综合| 国产稀缺精品盗摄盗拍| 99视频超级精品| 欧美一级小视频| 免费日韩精品中文字幕视频在线| 国产大尺度在线观看| 日本福利一区| 亚洲自拍偷拍区| 3d欧美精品动漫xxxx无尽| 美女av一区二区| av午夜在线| 亚洲激情视频网站| 99久久国产热无码精品免费| 欧美午夜性色大片在线观看| 国产av无码专区亚洲av毛网站| 91毛片在线观看| 中文字幕第10页| 日本va欧美va精品| 国产成人a亚洲精v品无码| 一区二区三区午夜视频| 日韩欧美一区二区视频在线播放| 免费观看在线一区二区三区| 国产精品1234| 136福利第一导航国产在线| 久久精品国产免费观看| 黄色小视频在线免费观看| 精品久久久影院| 国产精品高潮呻吟AV无码| 91国产丝袜在线播放| 国产成人无码精品久在线观看| 亚洲婷婷国产精品电影人久久| 大地资源二中文在线影视观看 | 人妻丰满熟妇av无码久久洗澡 | 亚洲专区中文字幕| av成人免费| 欧美一乱一性一交一视频| 欧美78videosex性欧美| 日韩中文在线中文网在线观看| 日本中文字幕一区二区有码在线| 欧美大片免费久久精品三p| ,亚洲人成毛片在线播放| 日本精品视频一区二区| 欧美一区二区三区四| 亚洲国产精品自拍| 久草免费在线视频观看| 中文字幕亚洲区| 手机看片国产日韩| 亚洲国产成人一区二区三区| 国产aⅴ激情无码久久久无码| 99久久久精品免费观看国产蜜| 日本中文字幕在线不卡| 国产自产视频一区二区三区| 中文字幕国产高清| 国产精品一区在线观看你懂的| 成人性生交视频免费观看| 国产一区二区不卡老阿姨| 99中文字幕在线| 韩国av一区二区三区| 亚洲av毛片在线观看| 国产高清精品在线| 欧美xxxxx少妇| 成人一区二区三区视频| 岛国精品资源网站| 91在线免费视频观看| 一区二区不卡免费视频| 久久久久国产精品人| 性欧美一区二区| 中文字幕av一区二区三区免费看| 欧美色图17p| 亚洲六月丁香色婷婷综合久久| 黄色a级片在线观看| 亚洲欧美日本在线| 免费无遮挡无码永久在线观看视频 | 欧美乱偷一区二区三区在线| 婷婷精品在线观看| 日韩精品久久久免费观看| 99久久综合狠狠综合久久aⅴ| 欧洲美女和动交zoz0z| 精品99视频| 激情网站五月天| 久久爱另类一区二区小说| 杨幂一区二区国产精品| 91亚洲精华国产精华精华液| 精品无人区无码乱码毛片国产| 中文字幕中文字幕一区| 麻豆成人在线视频| 色综合视频一区二区三区高清| 综合久久中文字幕| 精品国产伦一区二区三区观看方式| 午夜av免费在线观看| 在线观看欧美成人| 午夜激情在线| 国产不卡一区二区在线播放| 成人动漫视频在线观看| 国产伦一区二区三区色一情| 精品国产精品国产偷麻豆| 久久久天堂国产精品| 亚洲一区网站| 一级做a爱视频| 2021国产精品久久精品| 在线日韩国产网站| 天天色综合天天| 亚洲无码久久久久| 亚洲国产精品福利| 8888四色奇米在线观看| 欧美精品18videos性欧美| 户外露出一区二区三区| 91九色极品视频| 欧美精品一区二区久久| 成人免费视频91| 男男成人高潮片免费网站| fc2成人免费视频| 中文字幕日韩av资源站| 久久国产视频一区| 欧美成人高清电影在线| 在线免费黄色| 欧美一级视频免费在线观看| 日韩一区二区三区精品| 在线观看欧美一区| 国产精品最新自拍| 中文字幕永久免费| 中文字幕一区二区视频| 久久国产视频精品| 精品国产1区二区| 日本成人在线播放| 国产成人精品日本亚洲专区61| 999久久久精品一区二区| 在线国产99| 视频一区在线视频| 亚洲制服丝袜在线播放| 一区二区三区在线视频免费观看| 夜夜躁日日躁狠狠久久av| 日韩成人在线播放| av有码在线观看| 国产精品美女诱惑| 午夜久久福利| 91av免费观看| 亚洲精品成人精品456| 一女二男一黄一片| 中文在线不卡视频| 日韩欧美精品电影| 久久国产主播精品| 亚洲神马久久| 加勒比精品视频| 亚洲第一搞黄网站| 人妻与黑人一区二区三区| 色在人av网站天堂精品| 一区二区视频| h无码动漫在线观看| 国产电影精品久久禁18| 国产一二三四区| 日韩一区二区三免费高清| 超碰caoporn久久| 91传媒视频免费| 欧美精品日本| 波多野结衣三级视频| 亚洲国产视频在线| 国模无码一区二区三区| 韩国美女主播一区| 亚洲精品国模| 色多多视频在线播放| 国产精品女主播av| 国产麻豆91视频| 欧美日本国产在线| 另类春色校园亚洲| 日批视频在线免费看| 国产视频在线观看一区二区三区| 波多野结衣理论片| 中文字幕亚洲欧美日韩高清| av日韩在线免费观看| 国产a级黄色大片| av电影一区二区| 国产黄网在线观看| 色偷偷9999www| 国产欧美88| 国产极品尤物在线| 久久毛片高清国产| 在线视频播放大全| 欧美寡妇偷汉性猛交| 久久久久久毛片免费看 | 免费在线观看av网址| 亚洲福利视频二区| 日韩不卡免费高清视频| 亚洲欧洲在线一区| 国产成人精品亚洲日本在线桃色| 日本三级中文字幕| 一区二区欧美亚洲| 久久综合给合| 成熟了的熟妇毛茸茸| 国产精品色在线观看| 午夜免费福利视频| 国产成人精品av| 女人天堂亚洲aⅴ在线观看| 一本加勒比波多野结衣| 在线观看视频欧美| 欧洲黄色一区| 亚洲bbw性色大片| 粉嫩av亚洲一区二区图片| 欧美超碰在线观看| 欧美黑人xxx| 欧美熟乱15p| 国产chinese中国hdxxxx| 欧美视频三区在线播放| 黄网在线免费看| 亚洲精品日韩成人| 99精品视频在线免费观看| 91在线视频国产| 欧美中文字幕在线观看| 综合在线视频| 成年人在线免费看片|