首頁  >  文章  >  科技週邊  >  GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

PHPz
PHPz轉載
2023-03-31 22:39:271134瀏覽

不可解釋的智能,未來該如何發展?

2023年至今,ChatGPT和GPT-4始終霸占在熱搜榜上,一方面外行人都在驚嘆於AI怎麼突然如此強大,會不會革了「打工人」的命;另一方面,其實內行人也不明白,為何模型規模在突破某一界限後,突然就「湧現」出了驚人的智慧。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

出現智能是好事,但模型不可控、不可預測、不可解釋的行為,卻讓整個學術界陷入了迷惘與深思。

突然變強的超大模型

先出一道簡單的題目,下面這幾個emoj代表了什麼電影?

最簡單的語言模型往往只能續寫出「The movie is a movie about a man who is a man who is a man」;中等複雜度模型的答案則更接近,給出的答案是「The Emoji Movie」;但最複雜的語言模型只會給一個答案:海底總動員「Finding Nemo」

其實這個prompt也是為測試各種大型語言模型能力而設計的204項任務之一。

Google Research的電腦科學家Ethan Dyer參與組織了這次測試,他表示,雖然建構BIG-Bench資料集的時候我已經準備好了迎接驚喜,但當我真的見證這些模型能做到的時候,還是感到非常驚訝。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

驚訝之處在於,這些模型只需要一個提示符:即接受一串文字作為輸入,並且純粹基於統計數據一遍又一遍地預測接下來是什麼內容。

電腦科學家曾預計,擴大規模可以提高已知任務的效能,但他們沒有預料到模型會突然能夠處理這麼多新的、不可預測的任務。

Dyer最近參與的一項研究結果顯示,LLM 可以產生數百種「湧現」(emergent)能力,即大型模型可以完成的任務,小型模型無法完成,其中許多任務似乎與分析文本無關,例如從乘法計算到產生可執行的電腦程式碼,還包括基於Emoji符號的電影解碼等。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

新的分析表明,對於某些任務和某些模型,存在一個複雜性閾值,超過這個閾值,模型的功能就會突飛猛進。

研究人員也提出了湧現能力的另一個負面影響:隨著複雜性的增加,一些模型在答案中顯示出新的偏見(biases)和不準確性。

史丹佛大學的電腦科學家 Rishi Bommasani 表示,我所知道的任何文獻中都沒有討論過語言模型可以做這些事情。

去年,Bommasani 參與編制了一份包含數十種湧現行為的清單,其中包括在Dyer的專案中發現的幾種行為,並且這個名單還在繼續變長。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

論文連結:https://openreview.net/pdf?id=yzkSU5zdwD

目前研究人員不僅在競相發現更多的湧現能力,而且還在努力找出它們發生的原因和方式,本質上是試圖對不可預測性進行預測。

理解湧現可以揭示圍繞人工智慧和一般機器學習的深層問題的答案,例如複雜模型是否真的在做一些新的事情,或者只是在統計方面變得非常擅長,它還可以幫助研究人員利用潛在的優勢和減少湧現風險。

人工智慧新創公司 Anthroic 的電腦科學家Deep Ganguli表示,我們不知道如何判斷哪種應用程式的危害能力將會出現,無論是正常出現的還是不可預測的。

湧現的湧現(The Emergence of Emergence)

生物學家、物理學家、生態學家和其他科學家使用「湧現」一詞來描述當一大群事物作為一個整體時出現的自組織、集體行為。

例如無生命的原子組合產生活細胞; 水分子產生波浪; 椋鳥的低語以變化但可識別的模式在天空中飛翔; 細胞使肌肉運動和心臟跳動。

重要的是,湧現能力在涉及大量獨立部分的系統中都有出現,但是研究人員直到最近才能夠在LLM 中發現這些能力,或許是因為這些模型已經發展到了足夠大的規模。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

語言模型已經存在了幾十年,但直到五年前最強大的武器還是基於循環神經網路(RNN),訓練方法就是輸入一串文字並預測下一個單字是什麼;之所以叫循環(recurrent),是因為模型從自己的輸出中學習,也就是把模型的預測回饋到網路中,以改善效能。

2017年,Google大腦的研究人員引入了一種名為Transformer的全新架構,相比循環網路逐字分析一個句子,Transformer可以同時處理所有的單詞,也就意味著Transformer可以並行處理大量文字。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

透過增加模型中的參數數量以及其他因素,Transformer使語言模型的複雜性得以快速擴展,其中參數可以被認為是單字之間的連接,模型透過在訓練期間調整這些連結的權重以改善預測結果。

模型中的參數越多,建立連結的能力就越強,模擬人類語言的能力就越強。

正如預期的那樣,OpenAI 研究人員在2020年進行的一項分析發現,隨著模型規模的擴大,它們的準確性和能力都有所提高。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

論文連結:https://arxiv.org/pdf/2001.08361.pdf

隨著GPT-3(擁有1750億參數)和谷歌的PaLM (可擴展至5400億參數)等模型的發布,用戶發現了越來越多的湧現能力。

一位 DeepMind 的工程師甚至報告說,他可以讓 ChatGPT 認為自己是一個 Linux 終端,並運行一些簡單的數學程式碼來計算前10個質數。值得注意的是,ChatGPT可以比在真正的 Linux 機器上執行相同的程式碼更快地完成任務。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

與電影Emoji符號任務一樣,研究人員沒有理由認為一個用於預測文本的語言模型可以模仿電腦終端,許多湧現行為都展現了語言模型的Zero -shot或Few-shot學習能力,即LLM可以解決以前從未見過或很少見過的問題的能力。

大批研究人員發現了 LLM 可以超越訓練資料約束的跡象,他們正在努力更好地掌握湧現的樣子以及它是如何發生的,第一步就是完全記錄下來。

超越模仿遊戲

2020年,Dyer 和Google Research的其他人預測,LLM 將產生變革性影響,但這些影響具體是什麼仍然是一個懸而未決的問題。

因此,他們要求各個研究團隊提供困難且多樣化任務的例子以找到語言模型的能力邊界,這項工作也被稱為“超越模仿遊戲的基準”(BIG-bench,Beyond the Imitation Game Benchmark)項目,名字來自阿蘭· 圖靈提出的“模仿遊戲”,即測試計算機是否能以令人信服的人性化方式回答問題,也叫做圖靈測試。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

正如所預料的那樣,在某些任務上,隨著複雜性的增加,模型的性能平穩且可預測地得到改善;而在其他任務中,擴大參數的數量並沒有產生任何改善。

但是,在大約5% 的任務中,研究人員發現了所謂的「突破」(breakthroughs),即在一定閾值範圍內,表現出現了快速、戲劇性的躍升,該閾值隨任務和模型的不同而變化。

例如,參數相對較少(只有幾百萬)的模型不能成功地完成三位數加法或兩位數乘法的問題,但對於數百億個參數,某些模型的精度會大幅提高。

其他任務也出現了類似的跳躍,包括解碼國際音標、解讀單字的字母、識別印度英語(印地語和英語的結合)段落中的冒犯性內容,以及生成類似於斯瓦希里諺語的英文對等詞。

但是研究人員很快就意識到模型的複雜性並不是唯一的驅動因素,如果資料品質足夠高,一些意想不到的能力可以從參數較少的較小模型中獲得,或者在較小型的資料集上訓練,此外query的措詞也會影響模型回應的準確性。

去年,在該領域的旗艦會議NeurIPS 上發表的一篇論文中,Google Brain的研究人員展示瞭如何讓模型利用提示對自己進行解釋(思維鏈推理),例如如何正確地解決math word問題,而同樣的模型如果沒有提示就無法正確地解決。

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

論文連結:https://neurips.cc/Conferences/2022/ScheduleMultitrack?event=54087

Google Brain的科學家Yi Tay致力於系統研究breakthroughs,他指出,最近的研究表明,思維鏈的提示改變了模型的規模曲線,也改變了湧現的點,使用思維鍊式提示可以引發BIG 實驗中沒有發現的湧現行為。

布朗大學研究語言計算模型的電腦科學家Ellie Pavlick認為,最近的這些發現至少提出了兩種可能性:

GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?

第一個是,正如與生物系統相比較所顯示的那樣,較大的模型確實會自發地獲得新的能力,這很可能是因為這個模型從根本上學到了一些新的和不同的東西,而這些東西在小尺寸模型中沒有的,而這正是我們所希望的情況,當模型擴大規模時,會發生一些根本性的轉變。

另一種不那麼聳人聽聞的可能性是,看似突破性的事件可能是一個內部的、由統計數據驅動的、透過思維鍊式推理運作的過程,大型LLM 可能只是學習啟發式演算法,對於那些參數較少或資料品質較低的參數來說,啟發式演算法是無法實現的。

但她認為,找出這些解釋中哪一個更有可能依賴於能夠理解LLM 是如何運作的,因為我們不知道它們在引擎蓋下是如何運作的,所以我們不能說這些猜測中哪些較合理。

隱藏在未知力量下的陷阱

Google在二月份發布了類ChatGPT產品Bard,不過在演示中卻暴露出了一個事實性錯誤,這也帶來了一個啟示,雖然越來越多的研究人員開始依賴這些語言模型來做基本的工作,但是並不能相信這些模型的輸出結果,需要人來進一步檢查他們的工作。

湧現導致了不可預測性,而不可預測性也隨規模的擴大而增加,使研究人員難以預測廣泛使用的後果。

想要研究湧現現象,那你必須先在頭腦中有一個案例,在研究規模的影響之前,你無法知道可能會出現什麼能力或限制。

某些有害行為也會在某些模型中湧現,最近對LLM 的分析結果表明,社會偏見的湧現往往伴隨著大量的參數,也就是說大型模型會突然變得更有偏見,如果不能解決這個風險,就可能危及這些模型的研究對象。

以上是GPT-4太強,OpenAI也不懂!智能到底是怎麼突然「湧現」的?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除