機器狗的花樣真的太多了—
但今天還是有被驚艷到。
來自CMU的最新成果,直接讓狗子學會了:
兩倍身長的跳高、跳遠、倒立撒歡兒甚至倒立下樓梯
話不多說,直接放圖感受一波:
△ 這是跳遠
△ 這是跳高
#△ 倒立撒歡兒
要重寫的內容是:△倒立下樓梯
不得不說,尤其跳高那段的「掙扎」顯得狗子特別靈魂。
除了這些s操作,CMU也公佈了幾段跑酷視頻,完全自主的那種。
踏上坎兒、穿過縫隙、跨過斜坡,那真是一種暢快的感覺
#即使中間出現了一些“失誤”,也絲毫不會影響它立即前進
笑鼠,甚至還給安排了一段壓力測試,結果當然是「通過」~
最厲害的是,根據CMU介紹,以上這些極限操作,全部靠單一神經網路完成。
LeCun大佬聽了,都得反手一個讚。
在這篇推文中,作者詳細分析了這隻狗子的技術
首先,與基於視覺的端到端行走相比,2倍身長跳高跳遠這種極限操作完全不在同一個層次上
畢竟,任何一個錯誤都可能造成「致命的」後果
#對此,CMU採用sim2real來實現精準的足部控制和挑戰,最大限度地發揮機械優勢。
其中,Gym是用於模擬器的
再者,倒立。明顯地,用兩條腿行走比用四條腿要困難得多
然而,卡內基梅隆大學的機器狗採用了相同的基本方法來同時完成這兩個任務,甚至能夠在下樓梯的同時保持倒立狀態
第三,對於跑酷操作來說(本研究重點),機器狗必須透過精確的「眼部肌肉」協調來#自己決定前進方向,而非聽從人類指揮。
例如,當連續經過兩個斜坡時,它需要以一個非常特定的角度跳上坡道,然後立即改變方向
為了學會這些正確的方向,CMU使用MTS(Mixed Teacher Student)系統來教導機器狗。
系統只有在預測方向接近真實值的情況下才會採納
具體而言,該系統分為兩個階段:
第一階段,先利用RL學習一種移動策略,該過程可以訪問一些特權信息,除了環境參數和掃描點(scandots)以外,CMU還為機器狗適當提供了一些標誌點(waypoints),目的是引導大體方向。
然後,使用正規化線上自適應(Regularized Online Adaptation ,ROA)來訓練評估器,以便從觀察歷史中恢復環境資訊。
第二階段,從掃描點(scandots)中提取策略,系統將根據該策略和深度資訊自主決定如何前進,從而敏捷地輸出馬達命令。
整個過程就像「老師教,學生舉一反三學習」
除了這個系統之外,由於跑酷需要用上各種不同動作穿越障礙,因此為每一個障礙設計特定獎勵函數也是一件頭痛的事兒。
在此,作者選擇為所有任務制定了一個統一且簡單的內積獎勵函數。
它能夠自動產生各種不同的獎勵,並且能夠完全適應各種不同的地形形狀
如果沒有它,狗子的表現就會是這樣的:
最後,CMU也提出了一種全新的雙重蒸餾(dual distillation)方法,用於從深度影像中提取敏捷的運動指令和快速波動的前進方向。
同樣,如果沒有它,狗子的表現就像一個醉漢一樣:
#經過以上步驟,這隻狗終於學會了全新的自主跑酷,能夠完成一些高難度的動作
是不是很心動?別急:
以上這些成果,CMU已全部開源(瞧這日期,還是熱乎的呢)。
同時,這篇論文也已經發布了。大家可以在結尾處取得
這項研究是由卡內基美隆大學完成的,共有四位作者參與
其中兩位共同一作,且都是華人:
一位叫Xuxin Cheng,這項工作是他在CMU讀研時完成的,他現在是加州大學聖地牙哥分校(UCSD)的博士生,導師為王小龍;
另一位叫石可心,CMU機器人研究所的訪問學者。她本科畢業於西安交大。
專案首頁連結:https://extreme-parkour.github.io/(含論文、程式碼等連結)
以上是CMU機器狗,倒立下樓!發布即開源的詳細內容。更多資訊請關注PHP中文網其他相關文章!