首頁  >  文章  >  科技週邊  >  谷歌推出RT-2視覺語言動作模型,讓機器人掌握垃圾丟棄技能

谷歌推出RT-2視覺語言動作模型,讓機器人掌握垃圾丟棄技能

王林
王林轉載
2023-08-03 17:49:031179瀏覽

7 月 28 日訊息,Google今日推出了新的人工智慧(AI)模型 Robotics Transformer2(RT-2),可以幫助訓練機器人理解丟垃圾等任務。

谷歌推出RT-2視覺語言動作模型,讓機器人掌握垃圾丟棄技能

這句話無法重寫,因為它不是一句完整的句子,而是一個標註。請提供一個完整的句子,我將很樂意幫助您重寫

根據谷歌的說法,RT-2 是一種能夠將互聯網上的信息和圖像轉化為機器人可以理解的動作的視覺語言動作模型,這有助於提高機器人的學習能力

儘管撿垃圾這樣的任務對於人類來說似乎很簡單,但機器人需要掌握一系列知識才能進行學習。例如,機器人必須先學會辨認垃圾是由哪些物品構成的,然後了解如何將其撿起並處理

RT-2使機器人能夠利用網路上的知識來理解任務的完成方式,而不是透過程式設計來指導機器人完成特定的任務。即使機器人沒有經過明確的訓練步驟,也能透過RT-2學習並完成新的任務

根據《紐約時報》的報道,谷歌目前沒有計劃發布或銷售採用這項新技術的機器人,但最終這項技術可能會應用在倉儲物流或家庭助理機器人上

IT之家附上RT-2 模型詳細說明點此前往

以上是谷歌推出RT-2視覺語言動作模型,讓機器人掌握垃圾丟棄技能的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除