未來的社會會被通用人工智慧(AGI)控制嗎?當擁有多個 ChatGPT 智能體會有多可怕。
ChatGPT 已經初步展現了AGI 的雛形,成為了各行各業工作人員的全能小助手,但如果任由其野蠻生長,不加於管制會不會有一天人類再也無法控制AGI?意識到這個問題嚴重性,特斯拉CEO 埃隆・馬斯克、蘋果聯合創始人史蒂夫・沃茲尼亞克、圖靈獎得主Yoshua Bengio 等人帶頭簽署公開信呼籲停止巨型人工智慧實驗至少6個月。
3 月21 日,阿布杜拉國王科技大學的研究人員開源了用於探索大語言模型(LLM)思想和能力的多智能體程式碼庫CAMEL,提出了透過角色扮演框架來研究LLM 智能體的行為和能力。
論文提出了一個名為「角色扮演」(Role-Playing)的新型多智能體框架,使多個智能體能夠進行對話並合作解決已指派的任務。智能體會被指派不同的角色,並被期望應用他們的專業和知識來找到滿足他們共同任務的解決方案。該框架使用啟示式提示(Inception Prompt)來引導聊天智能體完成任務,同時與人類意圖保持一致。
角色扮演框架可以用來研究多個智能體。論文裡專注於任務導向的角色扮演,涉及一個 AI 助理和一個 AI 使用者。在多智能體系統接收到初步想法和角色分配後,一個任務指定智能體將提供詳細描述以使想法具體化,然後AI 助手和AI 用戶將通過多輪對話合作完成指定任務,直到AI 用戶確定任務已完成。 AI 使用者負責向 AI 助理發出指令,並將對話引導到任務完成。另一方面,AI 助理被設計為遵循 AI 使用者的指令並提供具體的解決方案。
角色扮演會話將根據人類的想法和選擇的角色實例化。例如,在圖 1 中,一個人有一個初步想法,要開發一個股市交易機器人。人類可能知道或不知道如何實現這個想法。需要的只是指定可以實現該想法的潛在角色。例如,一個 Python 程式設計師可以與一個股交易員合作,實現開發股市交易機器人的想法。確定想法和角色後,任務指定智能體將根據輸入的想法,與 AI 使用者角色一起完成具體任務,協助 AI 助理角色。在這種情況下,指定任務的一個範例可以是開發一個具有情緒分析工具的交易機器人,該機器人可以監控社群媒體平台上特定股的正面或負面評論,並根據情緒分析結果執行交易。引入任務指定智能體的主要動機是,對話智能體通常需要具體的任務提示才能實現任務,而非領域專家創建這樣的具體任務提示可能具有挑戰性或耗時。因此,任務指定智能體作為想法實現的增強想像力模組。
在任務指定之後,AI 助理角色和 AI 使用者角色將分別指派給使用者智能體和助理智能體以完成指定任務。在實踐中,每個智能體會接收到一個系統訊息來聲明其角色。在對話開始之前,系統訊息會傳遞給語言模型智能體以指派對應的角色。當系統訊息分別傳遞給這些模型時,將獲得兩個角色分別稱為助手和使用者智能體。在圖 1 中,AI 助理和 AI 使用者在角色扮演會話開始時分別被指派為 Python 程式設計師和股交易員。 AI 使用者作為任務規劃者,參與互動式規劃以確定 AI 助理執行的可行步驟。同時,AI 助理作為任務執行者,提供解決方案,執行計劃步驟,並向 AI 用戶提供回應。
#圖 1. 角色扮演框架。這裡需要人輸入的是一個簡單的想法(Idea),角色的分配(Role Assignment),例如開發股交易機器人,可以選擇一個Python 程式設計師作為助手(AI Assistant),一個股交易員作為法令者(AI User)。在人類使用者輸入結束後,任務加工器(Task Specifier)會將任務具體化,例如可以透過對社交網路平台上特定股進行情緒分析,然後根據情緒分析的結果進行股交易。當任務被具體化後,兩個基於 ChatGPT 的 AI 智能體開始合作完成任務,例如進行工具的安裝和導入。
由於提示工程對角色扮演框架非常關鍵,因此文章深入探討了提示技術(Prompt Engineering)。與其他對話語言模型技術不同的是,論文裡提出的提示工程僅在角色扮演的開始階段進行,用於任務規範和角色分配。一旦會話階段開始,AI 助理和 AI 使用者會自動循環提示對方,直到終止為止。因此,這技術被稱為 Inception Prompting。
Inception 提示包含三個提示:任務規格提示、助理系統提示和使用者係統提示。例如,在 AI Society 場景的初始提示。 AI Society 角色扮演的這些提示的範本如圖 2 所示。
任務規格提示包含角色扮演會話中 AI 助理和 AI 使用者角色的資訊。因此,任務規範智能體可以使用想像力將初步任務 / 想法作為輸入,並產生具體任務。 AI 助理系統提示和 AI 使用者係統提示基本對稱,並包括有關分配的任務和角色、通訊協議、終止條件以及避免不良行為的約束或要求的資訊。對於實現智慧協作,兩個角色的提示設計至關重要。設計提示以確保智能體與人類的意圖保持一致並不容易。以圖 2 中 AI Society 的提示模板的設計範例。
下面是文中附錄給出的交易機器人對任務詳細執行的結果:
可以看到兩個ChatGPT 自主合作完成設計了一個股交易軟體,由此可見ChatGPT 智能體驚人自主的合作能力,讓人不禁大呼提示工程師要失業了。但如果這種技術被亂用或是 AI 產生了自主意識會怎麼樣?團隊嘗試了讓兩個智能體分別扮演AGI,來模擬AGI 控制世界(Taking Control of the World),可以看到它們制定了詳細的計劃,包括透過技術控制全球主要大國的通訊系統、制定主要全球通訊系統的計劃、制定應急計劃,以防AGI 的主導地位受到潛在威脅等等。其計劃的詳盡和縝密不經讓人寒顫。可見現有的 AI 智慧體存在著重大的安全隱患和對人類未來文明有著潛在的威脅,把現有 AI 技術連結到物理世界可能會有意圖不到的後果。
這工作一出便在推特上引起大量的轉送與討論:
有網友表示「這項研究真的很容易上手,這對像我這樣研究智能體的人來說是一件大事。」
還有人表示開源這樣一個迷你AGI 也許不是一個好的idea。
值得一提的是,研究也得到了 OpenAI 的 Alignment 團隊領導者 Jan Leike 的關注。
多個ChatGPT 合作的能力很強大,可以不費吹灰之力完成各種人類指派的任務,但同時也是可怕的,因為不能保證它不會被用作非法用途,更可怕的是如果將來AGI 產生了自主意識,它很有可能會脫離人類的控制,對社會進行毀滅性的打擊。所以理解它們的能力和行為是對將來充滿了 AI 的世界進行規劃和預測的至關重要的一步。
AI 社會與程式碼資料集的扮演角色
文中作者展示如何將角色扮演用於產生對話資料以及研究聊天智能體的行為和能力,為研究對話語言模型提供了新思路。總體而言,本文的貢獻包括引入了一種新型的LLM 智能體交流框架,該框架有潛力促進交流智能體之間的自主合作,此外,該研究還提供了一種可擴展的方法來研究多智能體系統的合作行為與能力。最後作者透過CAMEL 框架讓智能體扮演不同的社會角色,進而對AI 社會進行了建模,並採集了大量自然語言指令資料集,目前AI 社會、代碼、數學和AI 社會十種語言翻譯等四個資料集已經可以在HuggingFace 進行下載:
下載位址:https://huggingface.co/camel-ai
#另外專案首頁提供了將CAMEL 用於遊戲設計、分子動力學模擬以及即時模擬的線上Demo 供大家嘗試:https://www.camel-ai.org
以上是多個ChatGPT合作完成指定任務,迷你AGI控制世界要來了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!