2022年接近尾聲之際,OpenAI發布了名為ChatGPT的聊天機器人,迅速走紅網路。
發布後不到兩週,已有超過一百萬人註冊線上試用。使用者只要輸入文本,就能立即得到一段段落的不可思議的文章、故事和詩歌。
它的文筆很好,以至於有些人用它在Tinder上寫約會的開場白(「你介意我坐這裡嗎?你做臀衝的樣子讓我的腿有點發軟。」)
#不僅如此,令世界各地的教育工作者相當震驚的是,學生們開始使用ChatGPT來撰寫學期論文。還有一些人正在使用它來嘗試重塑搜尋引擎。一時之間,全世界都在討論ChatGPT的神奇。
儘管如此,馬庫斯表示,我們不能對聊天機器人濾鏡太厚。
雖然ChatGPT看起來無所不知,但它也很容易出錯。在接受採訪時,馬庫斯表示,ChatGPT和之前一樣,相關係統「仍然不可靠,仍然不了解現實世界,仍然不了解心理世界並且仍然充滿錯誤。」
也就是說,ChatGPT時常胡編亂造;它所說的相當一部分根本不是真的。
例如,在使用者的誘導下,ChatGPT可以說出油條非常適合手術,因為「它們體積小巧,可以在手術過程中實現更高的精確度和控制,降低併發症的風險並改善手術的整體結果」 。
聊天機器人一本正經地說胡話,以至於著名的網站Stack Overflow已經暫時禁止電腦產生的答案。
而錯誤是無窮無盡的。雖然ChatGPT經常根據使用者回饋進行調整,但在產品發布幾週後,仍有許多網友對它的回答感到無言:
##類似的錯誤頻頻發生,連OpenAI的執行長Sam Altman也不得不承認現實:
ChatGPT仍有諸多局限,但足以創造出偉大的假象。
現在靠ChatGPT去完成重要任務還為時過早。關於提高穩健性和真實性,我們要做的還有很多。
簡而言之,ChatGPT雖然聽起來像是星際爭霸戰中的電腦一樣科幻,但目前,人們還不能完全信任它。
當然,ChatGPT是2022年AI愛好者的禮物。那麼2023年呢?
2023年,矽谷乃至整個世界翹首以盼的,是GPT-4。
#實際嘗試過GPT-4的人都對產品印象深刻。根據一些傳言,GPT-4將於2023年春天發布。屆時,它將使ChatGPT 黯然失色;可以肯定的是,會有更多人談論它。
在許多方面,人們對GPT-4的期望值非常高:
創投公司DVC創辦人Nick Davidov表示:GPT-4的出現,會帶來「和新冠疫情類似的經濟衝擊」。 GPT-4的快速傳播和使用,可以「迅速提高數億知識工作者的生產力」。
從技術上講,GPT-4內部將會有更多的參數,更多的處理器和內存,並接受更多資料的訓練。
GPT-1接受了4.6GB資料的訓練,而到了GPT-3,資料量直接飆升至750GB。由此可見,GPT-4的訓練量會更加驚人,甚至會對整個網路的大部分進行學習。
OpenAI深知,更大的訓練量意味著更好的輸出。經過每次迭代,GPT的表現越來越像人類。對於GPT-4,可能會進化成為一個性能怪物。
但它會解決之前遇到的問題嗎?馬庫斯對此仍然打了個問號。
儘管GPT-4看起來肯定會比它的前任更聰明,但其內部架構仍然存在問題。
馬庫斯稱,他懷疑人們在GPT-4時,會有一種似曾相識的感覺:先是火遍全網,然後過了幾天,人們發現許多問題仍然存在。
根據目前訊息,GPT-4在架構上與GPT-3基本相同。如果是這樣,可以預料到,一些基本問題仍然無法解決:聊天機器人仍然缺乏了解世界運作方式的內部模型。
因此,GPT-4無法在抽象層面上理解事物。它可能更擅長幫學生寫論文,但它仍然不會真正了解世界,答案的字裡行間仍會透露機器的特徵。
因此,儘管AI界對GPT-4的到來滿心歡喜,馬庫斯卻給出了7個不太積極的預測。
1. GPT-4仍然會像它的前輩一樣,犯下各種愚蠢的錯誤。它有時可能會很好地完成給定的任務,有時卻罷工不干,但你並不能提前預料到即將出現的是哪種情況。
2. GPT-4對物理、心理和數學的推理依然靠不住。它或許能夠解決部分之前未能挑戰成功的項目,但在面對更長和更複雜的場景時依然束手無策。
例如,當被問及醫學問題時,它要么拒絕回答,要么偶爾會說出聽起來很有道理但很危險的廢話。儘管它已經吞噬了網路上的大量內容,但它並不能足夠可信和完整地提供可靠的醫療建議。
3. 流暢幻象(fluent hallucinations)仍將十分常見,而且很容易被誘發。也就是說,大型語言模型依然是能輕易用於製作聽起來很合理但卻完全錯誤的訊息的工具。
4. GPT-4的自然語言輸出仍然無法以可靠的方式為下游程式提供服務。利用它來建立虛擬助理的開發者會發現,自己無法可靠地將使用者語言映射到使用者的意圖。
5. GPT-4本身不會是一個能解決任意任務的通用人工智慧。如果沒有外部的輔助,它既不能在Diplomacy中擊敗Meta的Cicero;也不能可靠地駕駛汽車;更不能驅動《變形金剛》裡的“擎天柱”,或者像《傑森一家》裡的“Rosie ”那樣多才多藝。
6. 人類「想要什麼」與機器「去做什麼」之間的「對接」,依然是一個關鍵且尚未解決的問題。 GPT-4仍將無法控制自己的輸出,一些建議是令人驚訝的糟糕,掩蓋偏見的例子也會在幾天或幾個月內被發現。
7. 當AGI(通用人工智慧)實現時,像GPT-4這樣的大型語言模型,或許會成為最終解決方案的一部分,但也僅限於其中的一部分。單純的「擴展」,也就是建立更大的模型直到它吸收了整個互聯網,在一定程度上會被證明是有用的。但值得信賴的、與人類價值觀一致的通用人工智慧,一定會來自於結構化程度更高的系統。它將具有更多的內建知識,並包含明確的推理和計劃工具。而這些,都是現在的GPT系統所缺乏的。
馬庫斯認為,在十年內,也許更少,人工智慧的重點將從對大型語言模型的擴展,轉向與更廣泛的技術相結合。
酷炫的東西總是好玩的,但這並不意味著它能帶領我們走向可信的通用人工智慧。
對此,馬庫斯預測,我們在未來需要的是一個可以將顯性知識和世界模型作為核心的全新架構。
參考資料:https://garymarcus.substack.com/p/what-to-expect-when-youre-expecting
以上是ChatGPT之後性能怪獸來了?馬庫斯7大「黑暗」預測:GPT-4帶不來AGI的詳細內容。更多資訊請關注PHP中文網其他相關文章!