首頁  >  文章  >  科技週邊  >  圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

WBOY
WBOY轉載
2023-05-04 13:04:13550瀏覽

今年上半年,可謂是AI屆最波瀾壯闊的半年。

在急速發展的各類GPT甚至AGI的雛形背後,是持不同觀點的兩大陣營的人們。

一派認為,以ChatGPT為首的生成式AI非常強大,能帶動一大波革命性的風潮,繼續推進沒有問題。

另一派認為,咱發展的有點太快了。不說禁止,也得停一停。而且道德方面,相匹配的約束也太少了。

而作為AI屆的一位大拿,Yann LeCun對此卻有不同看法。

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

#徹底禁止?不可行

LeCun表示,他對ChatGPT的表現並不感到驚訝,也不贊成暫停人工智慧的研究。

「這可能會產生和預期相反的結果。」

他表示,人工智慧作為人類智慧的放大器,可能是新文藝復興的起源。

ChatGPT這種大語言模型就是「自迴歸」。 AI接受訓練,從一個包含多達14000億個單詞的語料庫中提取單詞,預測給定句子序列中的最後一個單詞,也就是下一個必須出現的單詞。

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

Claude Shannon在上個世紀50年代所進行的相關研究就是基於這個原則。

原則沒變,變得是語料庫的規模,以及模型本身的運算能力。

LeCun表示,「目前,我們無法靠這類模型產生長而連貫的文本,這些系統不是可控的。比如說,我們不能直接要求ChatGPT產生一段目標人群是13歲兒童的文本。

其次,ChatGPT生成的文本作為資訊來源並不是100%可靠的。GPT的功能更像是一種輔助工具。就好比現有的駕駛輔助系統一樣,開著自動駕駛功能,也得把著方向盤。

而且,我們今天所熟知的自回歸語言模型的壽命都非常短,五年算是一個週期,五年以後,過去的模型就沒有人再會用了。

而我們的研究重點,就應該集中在找到一種是這些模型可控的辦法上。換句話說,我們要研究的AI,是能根據給定目標進行推理和計劃的AI,並且得能保證其安全性和可靠性的標準是一致的。這種AI能感受到情緒。」

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

要知道,人類情緒的很大一部分和目標的實現與否有關,也就是和某種形式的預期有關。

而有了這樣的可控模型,我們就能產生出長而連貫的文字。

LeCun的想法是,未來設計出能混合來自不同工具的資料的增強版模型,例如計算器或搜尋引擎。

像ChatGPT這樣的模型只接受文字訓練,因此ChatGPT對現實世界的認識並不完整。而想要在此基礎上進一步發展,就需要學習一些和整個世界的感官知覺、世界結構有關的內容。

而這些更複雜的內容並不是單純地透過閱讀文本就能實現的,這才是未來幾年的最大挑戰之一。

開源才是盡頭

對權力的渴望,是人類特有的。而AI並不會因為變得越來越強大就會具備這種渴望。

只有人類這個物種才知道如何制定法律,保障個體的行為不會過度損害共同利益。

OpenAI最初是一個開放的研究項目,現在已經關閉了。而OpenAI對其工作隻字未提,這種情況的逆轉在研究領域並不常見。

問題在於訓練語言模型很昂貴,要花費數千萬歐元,所以新創公司負擔不起。

這也是微軟與OpenAI合併的主要原因,需要集團共同的運算能力來改進其未來的模型。 這也是為什麼DeepMind和Google大腦最後還是合併了。

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

LeCun表示,最終在市場方面,開發者會走向一個開放平台的共同生態。如果只有少數公司控制這類技術,就糟糕了。

從歷史來看,不管是Facebook還是改完名的Meta,都在積極推動開放性的基礎研究,例如LlaMa這個開源專案。

圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年

90年代初期,Sun Microsystems和Microsoft大打出手,爭奪操作伺服器的力量。要記住,所有能一直站穩腳步的網路技術都是開源的。

LeCun最後表示,目前,阻止這類開放的開源AI平台的關鍵,是法律上的問題。如果未來歐盟想要推動AI產業的結構化,那麼這種類似的開源平台是不可或缺的。

以上是圖靈獎得主LeCun:ChatGPT侷限龐大,自迴歸模型壽命不超5年的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除