成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給周蕾
    發送

    0

    無懼雨雪風霜?斯坦福找到一種更適應動態環境的強化學習方法

    本文作者: 周蕾 2020-07-02 10:07
    導語:它與SAC、SLAC有何不同?

    無懼雨雪風霜?斯坦福找到一種更適應動態環境的強化學習方法

    斯坦福人工智能實驗室(SAIL)的研究人員最近設計了一種方法,能處理那些會隨時間變化的數據和環境,性能優于一些領先的強化學習方法,它被命名為LILAC(Lifelong Latent Actor-Critic)。

    這一方法使用了潛在變量模型和最大熵策略,以此利用過去的經驗,在動態環境中獲得更好的采樣效率和性能。

    他們在一篇關于LILAC的論文中寫道:

    “我們觀察到,在具有顯著非平穩性的各種連續控制任務中,與最先進的強化學習方法相比,我們的方法帶來了實質性的改進。”例如,它能夠更好地適應環境,機器人或自主車輛可以在天氣條件變化較多(比如遇到雨雪環境)引入時運行這一方法。

    作者在該動態強化學習環境中進行了四個測試,包括來自metaworld基準測試的Sawyer機器人、OpenAI Gym的Half-Cheetah和2D導航任務。

    研究人員發現,與伯克利AI研究院(BAIR)于2018年推出的SAC(Soft Actor Critical)和加州大學伯克利分校(UC Berkeley)研究人員今年早些時候推出的SLAC(Rastic Potential Actor Critic)等頂級強化學習方法相比,LILAC在所有領域都能獲得更高、更穩定的回報。

    斯坦福大學的研究人員Annie Xie、James Harrison和Chelsea Finn兩周前在arXiv上發表了一篇關于LILAC的論文。主要作者Xie也與加州大學伯克利分校教授Sergey Levine合作研究SAC和SLAC。

    “與這些方法不同,盡管在每一集中都會經歷環境的持續變化,但LILAC卻能推斷出未來環境的變化,并在訓練過程中穩步保持高回報。”

    作者說,LILAC與終身學習和在線學習算法有相似之處。元學習和元強化學習算法也試圖快速適應新的設置。

    在最近的其他強化學習新聞中,來自Google Brain、卡內基梅隆大學、匹茲堡大學和加州大學伯克利分校的AI研究人員最近又引入了一種新的域適應方法,即在強化學習環境中改變代理的獎勵函數。與其他強化學習環境一樣,該方法試圖使模擬器中的源域更像真實世界中的目標域。

    一篇上周發布的域適配論文指出,“行為主體會因為轉換而受到懲罰,轉換可以表明行為主體是在與源域還是目標域交互。”“在一系列控制任務上的實驗表明,我們的方法可以利用源域來學習在目標域中運行良好的策略,盡管只觀察到目標域的少數轉換。”

    研究人員修改了獎勵函數,使用分類器來區分源域和目標域的轉換。他們在OpenAI Gym用三個任務來測試他們的方法。

    雷鋒網編譯,via Stanford AI researchers introduce LILAC, reinforcement learning for dynamic environments | VentureBeat  

    雷鋒網雷鋒網

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    無懼雨雪風霜?斯坦福找到一種更適應動態環境的強化學習方法

    分享:
    相關文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說