首頁  >  文章  >  科技週邊  >  谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

PHPz
PHPz轉載
2023-04-13 09:10:021097瀏覽

「通用人工智慧」現在幾乎已經成了2020年代的「水變油」科技,差不多每半個月都會有人宣布發現/確信某個大模型的表現是已經覺醒了人性、AI 「活過來」了。 最近此類消息鬧得最兇的是Google。廣為人知的是前研究員Blake Lemoine說大語言模型LaMDA“活了”,這位老哥不出所料地進入了被離職流程。

其實幾乎同時的,還有《大西洋月刊》的Google準軟文在說,另一個新款大語言模型PaLM也成了「真正的通用人工智慧」( It is a true artificial general intelligence)。

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

《大西洋月刊》強行宣布PaLM成AGI

只不過這篇文章幾乎沒人讀,因此引發的討論和抨擊只有寥寥而已。

 然而,世界級大刊吹捧世界級大廠的稿件,即使再也沒人讀,也像老電影台詞說的一樣,「就好像黑夜裡的螢火蟲一樣,那麼鮮明,那麼出眾…」 2022年6月19日,《大西洋月刊》發布題為《人工意識好無聊》(Artificial Consciousness Is Boring)的文章。

而《大西洋月刊》此文的網頁標題比欲蓋彌彰的文章標題直白:《谷歌的PaLM AI比真實意識要奇怪得多》(Google's PaLM AI Is Far Stranger Than Conscious)。

內文不出意料,是作者採訪谷歌大腦的PaLM項目組成員之後的種種溢美之詞: 5400億參數,能不預先訓練就完成數百種不同的任務。能說笑話,能總結概述文本。 如果使用者輸入孟加拉語問題,PaLM模型可以用孟加拉語和英語答案。 

如果使用者要求把一段程式碼從C語言翻譯為Python,PaLM模型也能快速完成。 但此文逐漸從疑似軟文的誇誇訪談稿,走向了一個吹吹翻車稿:宣布PaLM模型是「真正的通用人工智慧」(It is a true artificial general intelligence)。

「PaLM的功能嚇到了開發者們,需要智識上的酷炫和距離、才能不被嚇到且接受—PaLM具有理性。」(the function that has startled its own developers, and which requires a certain distance and intellectual coolness not to freak out over. PaLM can reason.) 

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

 這就是這就是這本書

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

月第二次有大模型被強行宣布是AGI了。 這個宣稱的依據何在呢?按此文作者說,是因為PaLM模型可以在沒有預先特定訓練的前提下,自行「跳出定式」來解決不同的智慧任務。 而且PaLM模型擁有「思維鏈提示」功能,用白話說是將問題求解過程給PaLM模型拆解、解釋、演示一遍後,PaLM就能自行得出正確答案啦。

 

Jeff Dean本人從未說過PaLM是AGI

噱頭和證據之間的差距,有極大的「褲脫看這」感覺:原來《大西洋月刊》的作者,也有不查料就開始採訪人寫稿的習慣啊。 谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3% 之所以這麼說,是因為Jeff Dean老師帶領推出PaLM模型時,介紹過「思維鏈提示」功能。但谷歌大腦可絕不敢自吹這個產品是個已經活過來的「終結者」。 2021年10月,Jeff Dean親自撰寫了一個全新的機器學習架構-Pathways。目的很簡單,就是讓一個AI能夠跨越數以萬計的任務,理解不同類型的數據,並同時以極高的效率實現:

###### ##### #### ######

在大半年之後的2022年3月,Jeff Dean終於發布了Pathways的論文。 谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%論文地址:https://arxiv.org/abs/2203.12533 其中,補充了不少技術上的細節,例如最基本的系統架構等等。

 谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3% 

#2022年4月,Google以Pathways系統建構的PaLM語言模式面試世,這個擁有5400億參數的Transformer語言模型,接連打破多項自然語言處理任務的SOTA。 除了用到強大的Pathways系統外,論文中介紹PaLM的訓練用到了6144個TPU v4,使用了7800億token的高品質資料集,並且其中有22%的非英文、多語種語料。

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

#論文地址:https://arxiv.org/abs/2204.02311 「自我監督學習」、「思維鏈提示」在先前就是AI業界不陌生的概念,PaLM模型只是更進一步將概念落地具現化。 而雪上加霜的是,《大西洋月刊》此文直說了「谷歌研究者們也不清楚PaLM模型為何能達到此功能」………… 這是嫌Jeff Dean老師太閒、給他找事做啊。

批評者:《大西洋月刊》說法不可靠

果然,美國加州聖菲研究所的成員Melanie Mitchell教授在自己的社群網站帳號上發連續貼,含蓄但堅定地質疑了《大西洋月刊》此文。

Melanie Mitchell表示:「這篇文章很有趣,不過我認為作者可能沒有訪問Google研究者以外的AI界專業人士。 谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%

 例如其中種種聲稱PaLM模型『真正AGI』的證據。我自己是沒有使用PaLM的權限啊,不過谷歌4月自己發布論文中只是在幾個基準測試上有效果顯著的小樣本學習測試,但並非PaLM的所有小樣本學習測試結果都同樣穩健。 

#並且其中測試中使用的基準,有多少使用‘捷徑學習’這一簡化難度的技術,論文中也未提到。 依照《大西洋月刊》文章的措辭,PaLM至少可以高可靠性、高通用度、一般精度來完成各種任務。 

##然而不論是此文還是Google4月論文,都沒有詳細描述PaLM模型在通用智能方面的能力與局限,也沒有提及測試此方面能力的基準。 

並且PaLM‘具有理性』的聲稱尤其需要被驗證。 GPT系列的類似聲稱,因為其訪問權限的開放性,已經被在其上跑各種實驗的業內人士證偽了。如果PaLM要獲得如此殊榮,就該接受同等程度的對抗性驗證。 

還有,按Google4月論文的自白,PaLM的理性方面基準測試也就比業內幾個同類SOTA模型好一點點,優勝不多. 

谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3% 

#最關鍵一點,PaLM的論文未經同儕評議、模式也不對外界開放任何存取權限。所有聲稱都只算一張嘴在吹,無法證實、無法復現、無法評估。」

以上是谷歌PaLM模型也被外行人宣布覺醒了?業內人:理性測驗只比GPT好3%的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除