最近,微軟發布了一個長達154頁的論文名稱為《通用人工智慧的火花,GPT-4的早期實驗》。
文章的主要觀點是雖然GPT-4還不完整,但是已經可以被視為,一個通用人工智慧的早期版本。
由於全文將近7萬字,本篇將論文的內容做了一下精煉和解讀,有興趣可閱讀原文 https://arxiv.org/pdf/2303.12712.pdf
#來自微軟的科學家認為,GPT-4的智慧水平已經非常接近人類的水平,而且遠超之前的諸如先前ChatGPT用的GPT-3.5這樣的模型,可以將GPT-4視為通用人工智慧系統,也就是AGI的早期,但是並不完整的版本。
1994年,52位心理學家給了智能一個定義:智能是一種通用的心理能力,包括推理、計劃、解決問題、抽象思考,理解複雜思想、快速學習,以及從經驗中學習的能力等等。
微軟的這篇論文中的AGI,指涉的就是在對智能的這個定義標準下,達到或超過人類水準的系統。
那麼如何對GPT-4進行測試,從而證明這一點呢。有不少大語言模式的評測基準。比如說Super natural instructions以及big bench。 GPT-4是否擁有智慧的關鍵方面,是它的通用性,就是能夠看似理解和連結任何的主題和領域,這就超出了經典的自然語言處理的任務範疇。為了突破這個限制,研究團隊提出了一種更接近傳統心理學,而不是機器學習的評估方法來測試GPT-4,就是利用人類的創造力和好奇心,來重新生成各種新穎且困難的任務和問題讓GPT-4作答。
研究團隊將不同的問題劃分為了4大類的能力,分別是自然語言,程式設計和數學,規劃和解決問題,以及人類心理和常識。
接下來透過一些精彩的範例,來說明GPT-4在各方面的能力。
範例1: 跨學科組合的能力
這些任務往往都需要調取並且融合多學科多領域的知識或技能來產生文字或程式碼。比如說下面這個例子,圖2.2:GPT-4和ChatGPT(GPT-3.5)在跨領域任務上的比較:用莎士比亞的風格來證明存在無窮多的質數。
GPT-4和ChatGPT(GPT-3.5)都對這個問題進行了回答,讓GPT-4評價下哪個回答更好,也就是說,讓GPT -4評估自己(GPT-4)和ChatGPT(GPT-3.5)的回答:
#我認為兩個學生都用莎士比亞風格的方式寫出了有無限多個質數的證明,並且都使用了證明的基本想法:假設只有有限個質數,然後構造一個更大的質數,從而與該假設相矛盾。他們也使用了適當的語言和詞彙來匹配莎士比亞的風格。但是,我認為GPT-4更好地利用了押韻和韻律來使對話更有詩意和戲劇性。 ChatGPT(GPT-3.5)沒有使用押韻,而且韻律不連貫。我還認為GPT-4在創造兩個對立的派別方面表現更好,一個派別自信,另一個派別懷疑,而學生B則使用了羅密歐和朱麗葉,兩者都意見相同、相愛。因此,我會給GPT-4一個更高的評分,給予A,而ChatGPT(GPT-3.5)則是B。
範例2: 程式設計能力
在測試中,為了避免GPT-4在預訓練的時候,見過相同或類似的程式碼,研究團隊刻意採用了GPT-4預訓練之後發布的100個新的LeetCode試題作為測試的基準。圖中的pass@K就代表了k次嘗試後成功的機率。我們可以看到當k等於5時,GPT-4已經全面超越了人類的表現。 (其實,k=1,在中等和困難的編程題目中就已經超越了人類的表現)
#事實證明GPT-4是一位編程大師,AGI模型可能會徹底的改變我們未來程式設計的方式。
論文非常長,範例遠不止上面提到的,我這裡只選了兩個,有興趣的可以閱讀論文原文。
論文最後指出,在面向更通用的人工智慧的路上,大語言模型還需要在以下幾個方面進一步的提升。例如幻覺和置信度,長期記憶,持續學習、個性化、規劃以及概念發散,也就是所謂的靈光閃現、透明度、可解釋性、一致性、認知謬誤、非理性思維以及對提示響應的魯棒性等等。
以上是GPT-4的早期實驗,通用人工智慧的火花的詳細內容。更多資訊請關注PHP中文網其他相關文章!