搜尋
首頁科技週邊人工智慧讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

電子遊戲已經成為現實世界的模擬舞台,展現出無限的可能性。以《俠盜獵車手》(GTA)為例,在遊戲中,玩家可以以第一人稱視角,在虛擬城市洛聖都中體驗豐富多彩的生活。然而,既然人類玩家能夠在洛聖都中盡情暢遊並完成任務,我們是否也能有一個AI視覺模型來控制GTA中的角色,成為執行任務的「玩家」呢? GTA中的AI玩家是否能夠扮演一個遵守交通規則的五星級好市民,幫助警方抓捕罪犯,甚至做一個樂於助人的路人,幫助流浪漢找到適合的住所呢?

目前的視覺-語言模型(VLMs)在多模態感知和推理方面已經取得了實質性的進步,但它們通常基於較為簡單的視覺問答(VQA)或視覺標註(Caption)任務。然而,這些任務設定明顯無法讓VLM真正完成現實世界中的任務。因為實際任務不僅需要對視覺資訊的理解,更需要模型具備規劃推理和根據即時更新的環境資訊做出回饋的能力。同時,生成的規劃也需要能夠操縱環境中的實體來真實地完成任務

儘管目前已有的語言模型(LLMs)能夠根據提供的資訊進行任務規劃,但其無法理解視覺輸入,這大大限制了語言模型在執行具體現實任務時的應用範圍,特別是針對一些具身體智能的任務,基於文本輸入往往過於復雜或難以詳盡,這使得語言模型無法高效地從中提取信息以完成任務。目前,語言模型在程式生成方面已經進行了若干探索,但根據視覺輸入生成結構化、可執行、穩健的程式碼的探索仍未深入

為了解決如何使大模型具身智能化的問題,創建能夠準確制定計劃並執行命令的自主和情境感知系統,來自新加坡南洋理工大學,清華大學等的學者提出了Octopus。 Octopus 是一種基於視覺的可程式智能體,它的目的是透過視覺輸入學習,理解真實世界,並以產生可執行程式碼的方式完成各種實際任務。透過在大量視覺輸入和可執行程式碼的資料對的訓練,Octopus學會如何操控電子遊戲的角色完成遊戲任務,​​或完成複雜的家務活動。

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

  • 論文連結:https://arxiv.org/abs/2310.08588

  • 計畫網頁: https://choiszt.github.io/Octopus/

  • 開源程式碼連結:https://github.com/dongyh20/Octopus

#需要重寫的內容是:資料收集與訓練 重寫後的內容:資料收集與訓練

為了訓練能夠完成具身智慧化任務的視覺- 語言模型,研究者們也開發了OctoVerse,其包含兩個模擬系統用於為Octopus 的訓練提供訓練資料以及測試環境。這兩個模擬環境為 VLM 的具身智能化提供了可用 的訓練以及測試場景,對模型的推理和任務規劃能力都提出了更高的要求。具體如下:

1.OctoGibson:基於史丹佛大學開發的 OmniGibson 進行開發,總共包括了 476 個符合現實生活的家 務活動。整個模擬環境中包含 16 個不同類別的家庭場景,涵蓋 155 個實際的家庭環境實例。模型可 以操作其中存在的大量可交互物件來完成最終的任務。

2.OctoGTA:基於《俠盜獵車手》(GTA)遊戲進行開發,一共構建了 20 個任務並將其泛化到五個不 同的場景當中。透過預先設定好的程序將玩家設定在固定的位置,提供完成任務必須的物品和 NPC,以確保任務能順利進行。

下圖展示了 OctoGibson 的任務分類以及 OctoGibson 和 OctoGTA 的一些統計結果。

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

為了在兩個建構的模擬環境中有效收集訓練數據,研究人員建立了一個完整的數據收集系統。透過引入GPT-4作為任務執行者,研究人員利用預先實現的函數將從模擬環境中獲得的視覺輸入轉化為文字訊息,並提供給GPT-4。在GPT-4返回目前一步的任務規劃和可執行程式碼後,再在模擬環境中執行程式碼,並判斷目前一步的任務是否完成。如果成功,繼續收集下一步的視覺輸入;如果失敗,則回到上一步的起始位置,重新收集資料

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

上圖以 OctoGibson 環境當中的 Cook a Bacon 任務為例,展示了收集資料的完整流程。需要指出的是,在收集數據的過程中,研究者不僅記錄了任務執行過程中的視覺信息,GPT-4 返回的可執行代碼等,還記錄了每一個子任務的成功情況,這些將作為後續引入強化學習來建立更有效率的VLM 的基礎。 GPT-4 的功能雖然強大,但並非無懈可擊。錯誤可以以多種方式顯現,包括語法錯誤和模擬器中的物理挑戰。例如,如圖 3 所示,在狀態 #5 和 #6 之間,由於 agent 拿著的培根與平底鍋之間的距離太遠,導致 「把培根放到平底鍋」 的行動失敗。此類挫折會將任務重置到先前的狀態。如果一個任務在 10 步之後仍未完成,則被認定為不成功,我們會因預算問題而終止這個任務,而這個任務的所有子任務的資料對都會認為執行失敗。

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

研究者在收集了一定規模的訓練資料後,利用這些資料訓練出了一個具備智慧化的視覺-語言模型Octopus。下圖展示了完整的資料收集和訓練過程。在第一階段,透過使用採集的資料進行監督式微調,研究者建構出了一個能夠接收視覺訊息作為輸入,並按照固定格式進行輸出的VLM模型。在這個階段,模型能夠將視覺輸入資訊映射為任務計劃和可執行程式碼。在第二階段,研究者引入了RLEF

利用環境回饋的強化學習,透過先前收集的子任務的成功情況作為獎勵訊號,進一步提升VLM 的任務規劃能力,以提高整體任務的成功率

實驗結果

研究者在建構的OctoGibson 環境中,對於當前主流的VLM 和LLM 進行了測試,下表展示了主要實驗結   果。對於不同的測試模型,Vision    Model 列舉了不同​​模型所使用的視覺模型,對於 LLM 來說,研究者將視覺訊息處理為文字作為 LLM 的輸入。其中 O 代表提供了場景中可交互物體的信息,R 代表提供了場景中 物體相對關係的信息,GT 代表使用真實準確的信息,而不引入額外的視覺模型來進行檢測。

對於所有的測試任務,研究者報告了完整的測試整合功率,並進一步將其分為四個類別,分別記錄在訓練集中存在的場景中完成新任務,在訓練集中不存在的場景中完成新任務的泛化能力,以及對於簡單的跟隨任務以及複雜的推理任務的泛化能力。對於每一種類別的統計,研究者報告了兩個評價指標,其中第一個為任務的完成率,以衡量模型完成具身智能任務的成功率;第二個為任務規劃準確率,用於體現模型進行任務規劃的能力。

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

此外,研究人員也展示了 OctoGibson 模擬環境中所採集的視覺數據,不同模型的反應實例。下圖展示了使用 TAPA CodeLLaMA、Octopus以及GPT-4V三種模型在OctoGibson中產生視覺輸入後的回應。可以看出,相較於只進行了監督式微調的Octopus模型和TAPA CodeLLaMA,經過RLEF訓練的Octopus模型的任務規劃更加合理。即使對於較為模糊的任務指令“尋找一個大瓶”,也能提供更完善的計劃。這些表現進一步說明了RLEF訓練策略對於提升模型的任務規劃能力和推理能力的有效性

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

#總體來說,現有的模型在模擬環境中表現出的實際任務完成度和任務規劃能力依舊有很大的提升空間。研究者們總結了一些較為關鍵的發現:

1.CodeLLaMA 能夠提升模型的程式碼產生能力,但無法提升任務規劃能力。

研究者指出,實驗結果表明,CodeLLaMA能夠顯著提高模型的程式碼產生能力。相較於傳統的LLM,使用CodeLLaMA能夠獲得更好、更高可執行性的程式碼。然而,儘管有些模型使用CodeLLaMA產生程式碼,但整體任務的成功率仍受到任務規劃能力的限制。任務規劃能力較弱的模型,儘管產生的程式碼可執行性較高,但最終任務成功率仍然較低。反觀Octopus,儘管沒有使用CodeLLaMA,代碼可執行性略有下降,但由於其強大的任務規劃能力,整體任務成功率仍然優於其他模型

#當面對大量的文本信息輸入時,LLM 的處理變得相對困難

在实际的测试过程中,研究者通过对比 TAPA 和 CodeLLaMA 的实验结果得出了一个结论,即语言模型很难较好地处理长文本输入。研究者们遵从 TAPA 的方法,使用真实的物体信息来进行任务规划,而 CodeLLaMA 使用物体和物体之间的相对位置关系,以期提供较为完整的信息。但在实验过程中,研究者 发现由于环境当中存在大量的冗余信息,因此当环境较为复杂时,文本输入显著增加,LLM 难以从大量 的冗余信息当中提取有价值的线索,从而降低了任务的成功率。这也体现了 LLM 的局限性,即如果使用 文本信息来表示复杂的场景,将会产生大量冗余且无价值的输入信息。

3.Octopus 表现出了较好的任务泛化能力。

Octopus具有很強的任務泛化能力,通過實驗結果可以得知。在未出現在訓練集中的新場景中,Octopus完成任務的成功率和任務規劃的成功率均優於現有模型。這也展現了視覺-語言模型在同一類別的任務中具有內在優勢,其泛化性能優於傳統的LLM

4.RLEF 能够增强模型的任务规划能力。

研究人员在实验结果中提供了两个模型的性能比较:一个是经过第一阶段监督式微调的模型,另一个是经过RLEF训练的模型。从结果中可以看出,经过RLEF训练后,模型在需要强大的推理和任务规划能力的任务上,整体成功率和规划能力都有显著提高。相比已有的VLM训练策略,RLEF更加高效。示例图表明,经过RLEF训练的模型在任务规划方面有所提高。在面对复杂任务时,模型能够学会在环境中探索;此外,模型在任务规划方面更加符合仿真环境的实际要求(例如,模型需要先移动到要交互的物体,才能开始交互),从而降低任务规划失败的风险

讨论

需要重写的内容是:融化试验

在对模型实际能力进行评估后,研究人员进一步探究了影响模型性能的可能因素。如下图所示,研究人员从三个方面进行了实验

需要重写的内容是:1. 訓練參數的比重

研究者进行了对比实验,比较了仅训练视觉模型和语言模型的连接层、训练连接层和语言模型,以及完整训练模型的性能。结果显示,随着训练参数的增加,模型的性能逐渐提升。这表明,训练参数的数量对于模型在一些固定场景中能否完成任务至关重要

2. 模型的大小

研究人员对比了较小的3B参数模型和基线7B模型在两个训练阶段的性能差异。比较结果表明,当模型整体参数量较大时,模型的性能也会明显提升。未来在VLM领域的研究中,如何选择适当的模型训练参数,以确保模型具备完成对应任务的能力,同时也保证模型的轻量化和快速推理速度,将是一个非常关键的问题

需要重写的内容是:3. 视觉输入的连续性。 重写后的内容:3. 视觉输入的连贯性

为了研究不同的视觉输入对实际VLM性能的影响,研究人员进行了实验。在测试过程中,模型在仿真环境中按顺序转动,并采集第一视角图像和两张鸟瞰图,然后按顺序将这些视觉图像输入VLM。在实验中,当研究人员随机打乱视觉图像的顺序再输入VLM时,VLM的性能受到较大的损失。这一方面说明了完整且结构化的视觉信息对VLM的重要性,另一方面也反映了VLM在响应视觉输入时需要依赖视觉图像之间的内在联系,一旦这种联系被破坏,将极大地影响VLM的表现

讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了

GPT-4

此外,研究者还对 GPT-4 以及 GPT-4V 在仿真环境当中的性能进行了测试和统计。

需要进行改写的是:1. GPT-4

针对 GPT-4,在测试过程中研究者提供与使用其采集训练数据时完全相同的文本信息作为输入。在测试任务上,GPT-4 能够完成一半的任务,这一方面说明现有的 VLM 相对于 GPT-4 这样的语言模型,从性能上还 有很大的提升空间;另一方面也说明,即使是 GPT-4 这样性能较强的语言模型,在面对具身智能任务时, 其任务规划能力和任务执行能力依然需要更进一步的提升。

需要重新书写的内容是:2. GPT-4V

由於 GPT-4V 剛發布可以直接呼叫的 API,研究者還來不及嘗試,但研究者們之前也手動測試了一些實例來展現 GPT-4V 的效能。透過一些範例,研究者認為GPT-4V 對於模擬環境當中的任務具有較強的零樣本泛化能力,也能夠根據視覺輸入產生對應的可執行的程式碼,但其在一些任務規劃上稍遜色於在模擬環境採集的資料上微調之後的模型。

總結

研究人員指出了目前工作的一些限制:

目前的Octopus模型在處理複雜任務時表現不佳。面對複雜任務時,Octopus經常會做出錯誤的規劃,並且嚴重依賴環境的反饋訊息,導致難以完成整個任務

2.Octopus 模型僅在仿真環境當中進行訓練,而如何將其遷移到真實世界當中將會面臨一連串的問題。例如,真實環境當​​中模型將難以得到較為準確的物體相對位置訊息,如何建構起物體對於場景 的理解將變得更加困難。

3. 目前,章魚的視覺輸入是離散的靜態圖片,將其能夠處理連續的影片成為未來的挑戰。連續的影片可以進一步提高模型完成任務的效能,但如何有效率地處理和理解連續視覺輸入將成為提升 VLM 表現的關鍵

以上是讓AI模型成為GTA五星玩家,基於視覺的可程式智能體Octopus來了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:机器之心。如有侵權,請聯絡admin@php.cn刪除
微軟工作趨勢指數2025顯示工作場所容量應變微軟工作趨勢指數2025顯示工作場所容量應變Apr 24, 2025 am 11:19 AM

由於AI的快速整合而加劇了工作場所的迅速危機危機,要求戰略轉變以外的增量調整。 WTI的調查結果強調了這一點:68%的員工在工作量上掙扎,導致BUR

AI可以理解嗎?中國房間的論點說不,但是對嗎?AI可以理解嗎?中國房間的論點說不,但是對嗎?Apr 24, 2025 am 11:18 AM

約翰·塞爾(John Searle)的中國房間論點:對AI理解的挑戰 Searle的思想實驗直接質疑人工智能是否可以真正理解語言或具有真正意識。 想像一個人,對下巴一無所知

中國的'智能” AI助手回應微軟召回的隱私缺陷中國的'智能” AI助手回應微軟召回的隱私缺陷Apr 24, 2025 am 11:17 AM

與西方同行相比,中國的科技巨頭在AI開發方面的課程不同。 他們不專注於技術基準和API集成,而是優先考慮“屏幕感知” AI助手 - AI T

Docker將熟悉的容器工作流程帶到AI型號和MCP工具Docker將熟悉的容器工作流程帶到AI型號和MCP工具Apr 24, 2025 am 11:16 AM

MCP:賦能AI系統訪問外部工具 模型上下文協議(MCP)讓AI應用能夠通過標準化接口與外部工具和數據源交互。由Anthropic開發並得到主要AI提供商的支持,MCP允許語言模型和智能體發現可用工具並使用合適的參數調用它們。然而,實施MCP服務器存在一些挑戰,包括環境衝突、安全漏洞以及跨平台行為不一致。 Forbes文章《Anthropic的模型上下文協議是AI智能體發展的一大步》作者:Janakiram MSVDocker通過容器化解決了這些問題。基於Docker Hub基礎設施構建的Doc

使用6種AI街頭智能策略來建立一家十億美元的創業使用6種AI街頭智能策略來建立一家十億美元的創業Apr 24, 2025 am 11:15 AM

有遠見的企業家採用的六種策略,他們利用尖端技術和精明的商業敏銳度來創造高利潤的可擴展公司,同時保持控制。本指南是針對有抱負的企業家的,旨在建立一個

Google照片更新解鎖了您所有圖片的驚人Ultra HDRGoogle照片更新解鎖了您所有圖片的驚人Ultra HDRApr 24, 2025 am 11:14 AM

Google Photos的新型Ultra HDR工具:改變圖像增強的遊戲規則 Google Photos推出了一個功能強大的Ultra HDR轉換工具,將標準照片轉換為充滿活力的高動態範圍圖像。這種增強功能受益於攝影師

Descope建立AI代理集成的身份驗證框架Descope建立AI代理集成的身份驗證框架Apr 24, 2025 am 11:13 AM

技術架構解決了新興的身份驗證挑戰 代理身份集線器解決了許多組織僅在開始AI代理實施後發現的問題,即傳統身份驗證方法不是為機器設計的

Google Cloud Next 2025以及現代工作的未來Google Cloud Next 2025以及現代工作的未來Apr 24, 2025 am 11:12 AM

(注意:Google是我公司的諮詢客戶,Moor Insights&Strateging。) AI:從實驗到企業基金會 Google Cloud Next 2025展示了AI從實驗功能到企業技術的核心組成部分的演變,

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

強大的PHP整合開發環境

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

將Eclipse與SAP NetWeaver應用伺服器整合。

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器