ChatGPT與GPT-4之間最重要的差異在於在GPT-4的基礎上建立預測下一個字元具有更高的準確度。神經網路越能預測文本中的下一個詞,它就越能理解文本。
大數據摘要出品
作者:Caleb
英偉達碰上OpenAI會擦出怎樣的火花?
就在剛剛,英偉達創始人兼首席執行官黃仁勳在GTC的爐邊談話中與OpenAI共同創辦人Ilya Sutskever進行了一次深入交流。
影片連結:
#https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessinotallow=16566177511100015Kus #/session/1669748941314001t6Nv
前兩天,OpenAI推出了迄今為止最強大的人工智慧模型GPT-4。 OpenAI在官網上稱GPT-4為“OpenAI最先進的系統”,“能夠產生更安全、更有用的響應”。
Sutskever在談話中也表示,與ChatGPT相比,GPT-4在許多方面標誌著“相當大的改進”,並指出新模型可以讀取圖像和文字。他說,「在未來的某個版本中,[用戶]可能會得到一張圖表」來回應提問和查詢。
毫無疑問,隨著ChatGPT與GPT-4在全球範圍內的爆火,這也成為了這次談話的關注焦點,而除了GPT-4及其前身包括ChatGPT相關話題外,黃仁勳與Sutskever也聊到了深度神經網路的能力、限制和內部運作方式,以及對未來AI發展的預測。
接下來就和文摘菌一起深入這場對話看看吧~
可能不少人一聽到Sutskever的名字最早想到的就是OpenAI及其相關的AI產品,但要知道,Sutskever的履歷可以追溯到吳恩達的博士後、Google Brain的研究科學家,以及Seq2Seq模型的合作開發者。
可以說,從一開始,深度學習就與Sutskever綁定在了一起。
在談到對深度學習的認識時,Sutskever表示,從現在來看,深度學習確實改變了世界。不過他個人的出發點更多是在於對AI存在的巨大影響潛力的直覺,對意識與人類經驗的濃厚興趣,以及認為AI的發展會幫助解答這些問題。
2002-03年期間,人們普遍認為學習是一件只有人類才能做到的事,而電腦是無法學習的。而如果能讓電腦具有學習的能力,那將是AI領域一次重大的突破。
這也成了Sutskever正式進軍AI領域的契機。
於是Sutskever找到了同一所大學的Jeff Hinton。在他看來,Hinton所從事的神經網路正是突破口,因為神經網路的特性就在於能夠學習,可以自動程式化的平行電腦。
而彼時並沒有人在意網路規模和運算規模的重要性,人們訓練的神經網路只有50個或100個,數百個的規模已經算大的了,一百萬的參數也被視為很龐大。
除此之外,他們還只能在沒有優化過的CPU程式碼上跑程序,因為沒人懂BLAS,多用優化後的Matlab做一些實驗,例如用什麼樣的問題來提問比較好。
但問題是,這些都是很零散的實驗,無法真正推動技術進步。
當時,Sutskever察覺到,有監督學習才是未來前進的方向。
這不僅是一種直覺,也是無須爭辯的事實。在神經網路夠深且夠大的基礎上,那麼它就有能力去解決一些有難度的任務。但人們還沒有專注在深且大的神經網路上,甚至人們根本沒有把目光放在神經網路上。
為了找到一個好的解決方案,就需要一個合適的大數據集以及大量的計算。
ImageNet就是那個資料。當時ImageNet是一個難度很高的資料集,但要訓練一個大的捲積神經網絡,就必須要有匹配的算力。
接下來GPU就該出場了。在Jeff Hinton的建議下,他們發現隨著ImageNet資料集的出現,卷積神經網路是非常適合GPU的模型,所以能夠讓它變得很快,規模也就這麼越來越大了。
隨後更是直接大幅打破了電腦視覺的紀錄,而這不是基於以往方法的延續,關鍵在於這個資料集本身的難度與範圍。
在OpenAI初期,Sutskever坦言道,他們也不是完全清楚如何推動這個計畫。
在2016年初,神經網路沒有那麼發達,研究人員也比現在少很多。 Sutskever回憶稱,當時公司只有100個人,大部分都還都在谷歌或deepmind工作。
不過當時他們有兩個大的思路。
其中一個是透過壓縮進行無監督學習。 2016年,無監督學習是機器學習中一個尚未解決的問題,沒有人知道怎麼實現。最近,壓縮也不是人們平常會談到的話題,只是突然間大家突然意識到GPT其實壓縮了訓練資料。
從數學意義上講,訓練這些自回歸生成模型可以壓縮數據,並且直觀上也可以看到為什麼會起作用。如果資料被壓縮得夠好,你就能提取其中存在的所有隱藏資訊。這也直接導致了OpenAI對情緒神經元的相關研究。
同時,他們對相同的LSTM進行調整來預測亞馬遜評論的下一個字符時發現,如果你預測下一個字符足夠好,就會有一個神經元在LSTM內對應於它的情緒。這很好地展示了無監督學習的效果,也驗證了下一個字元預測的想法。
但是要從哪裡得到無監督學習的資料呢? Sutskever表示,無監督學習的苦難之處不在於數據,更多關於為什麼要這麼做,以及意識到訓練神經網路來預測下一個字元是值得追求和探索的。於此它會學到一個可以理解的表徵。
另一個大的想法就是強化學習。 Sutskever一直相信,更大的就是更好的(bigger is better)。在OpenAI,他們的一個目標就是找出規模擴展的正確途徑。
OpenAI完成的第一個真正的大型專案是實作戰略遊戲Dota 2。當時OpenAI訓練了一個強化學習的agent來與自己對抗,目標是達到一定程度能夠和人類玩家遊戲。
從Dota的強化學習轉變為人類回饋的強化學習與GPT產出技術基座結合,就成瞭如今的ChatGPT。
當訓練一個大型神經網路來準確預測網路上不同文本中的下一個單字的時候,OpenAI所做的是學習一個世界模型。
這看起來像是只在學習文本中的統計相關性,但實際上,學習這些統計相關性就可以把這些知識壓縮得非常好。神經網路所學習的是生成文本的過程中的一些表述,這個文本實際上是世界的一個映射,因此神經網路便能夠學習越來越多的角度來看待人類和社會。這些才是神經網路真正在準確預測下一個字的任務中學到的東西。
同時,對下一個字的預測越準確,還原度就越高,在這個過程中得到的對世界的解析度就越高。這是預訓練階段的作用,但這並不能讓神經網路表現出我們希望它表現出的行為。
一個語言模型真正要做到的是,如果我在互聯網上有一些隨機文本,以一些前綴或提示開始,它會補全什麼內容。
當然它也可以在互聯網上找到文本進行填充,但這就不是最初構想的那樣的,因此還需要額外的訓練,這就是微調、來自人類老師的強化學習,以及其他形式的AI協助可以發揮作用的地方。
但這不是教導新的知識,而是與它交流,向它傳達我們希望它變成什麼樣,其中也包括了邊界。這個過程做得越好,神經網路就越有用越可靠,邊界的保真度就越高。
ChatGPT成為用戶成長最快的應用沒多久,GPT-4就正式釋出。
在談到兩者的差異時,Sutskever表示,GPT-4相較於ChatGPT在許多維度上都做到了相當大的改進。
ChatGPT與GPT-4之間最重要的差異在於在GPT-4的基礎上建立預測下一個字元具有更高的準確度。神經網路越能預測文本中的下一個詞,它就越能理解文本。
例如,你讀了一本偵探小說,情節非常複雜,穿插了非常多的故事情節和人物,埋了很多神秘的線索。在書的最後一章,偵探收集了所有的線索,召集了所有人,說現在他將揭示誰是犯人,那個人就是…
這就是GPT-4能夠預測的東西。
人們都說,深度學習不會邏輯推理。但不管是這個例子還是GPT能做到的一些事,都展現出了一定程度的推理能力。
Sutskever對此回應稱,當我們在定義邏輯推理時,在進行下一步決策時如果你能夠以某種方式思考一下或許能得到一個更好的答案。而神經網路能走多遠也尚待考察,OpenAI目前還沒有充分挖掘出它的潛力。
有些神經網路其實已經具備了這類能力,但大多還不夠可靠。而可靠性是讓這些模型有用的最大阻礙,這也是目前模型的一大瓶頸。這不關乎模型是否具備特定的能力,而是具備多少能力。
Sutskever也表示,GPT-4發佈時並沒有內建的檢索功能,它只是一個能夠預測下一個字的很好的工具,但可以說它完全具備這個能力,將檢索變得更好。
GPT-4还有一个显著的改进就是对图像的响应和处理。多模态学习在其中发挥了重要的作用,Sutskever说到,多模态有两个维度,第一个在于多模态对神经网络是有用处的,尤其是视觉;第二个在于除了文本学习外,从图像中也可以学习到世界的知识。
再说到利用AI训练AI时,Sutskever表示这一部分的数据不应该被忽视。
预测未来语言模型的发展是一件困难的事,但是在Sutskever看来,有充分理由相信这个领域会持续进步,AI也将在自己的能力边界继续用实力震惊人类。AI的可靠性是由是否可以被信任决定的,未来肯定会达到可被完全信赖的地步。
如果它不能完全理解,它也会通过提问来弄清楚,或者告诉你它不知道,这些正是AI可用性影响最大的领域,未来会有最大的进步。
现在就面临这样一个挑战,你想让一个神经网络总结长文档或获取摘要,如何确定重要的细节没有被忽视?如果一个要点显然重要到每个读者都会对此达成一致,那么就可以承认神经网络总结的内容是可靠的。
在神经网络是否清楚地遵循用户意图这一点上也同样适用。
未来两年会看到越来越多这样的技术,让这项技术变得越来越可靠。
相关报道:https://blogs.nvidia.com/blog/2023/03/22/sutskever-openai-gtc/
以上是GPT-4比ChatGPT有何進步?黃仁勳與OpenAI聯合創始人進行了一次'爐邊談話”的詳細內容。更多資訊請關注PHP中文網其他相關文章!