這家公司做出了或許能引爆第四次工業革命的產品,但他們卻百思不得其解:為啥自家的產品能這麼火?
就,真的不是凡爾賽。
最近,MIT Technology Review採訪了ChatGPT的幾位開發者,讓我們近距離了解了這個大爆的AI產品背後的故事。
火成這樣,沒有絲毫防備
當OpenAI在202211月下旬悄無聲息地推出ChatGPT時,這家新創公司並沒有報多大的期望。
OpenAI的員工也沒想過,自家模型即將走上的,是一條屬於頂流的爆紅之路。
ChatGPT彷彿在夜間大紅大紫,也引發了關於大語言模型的一場全球淘金熱,而OpenAI還沒有絲毫準備,只能匆忙地趕上自己頂流模型的腳步,試圖抓住商機。
在OpenAI從事政策工作的Sandhini Agarwal說,在OpenAI內部,ChatGPT一直被視為「研究預覽」——它是一個兩年前技術的更完善的版本,更重要的是,公司試圖透過公眾的回饋,來消除模型的一些缺陷。
誰能想到,這樣一個「預覽」產品,陰差陽錯出道後就爆紅了呢。
對此,OpenAI的科學家很懵逼,對於外界的花朵和掌聲,他們也很清醒。
「我們不想把它誇大為一個巨大的基礎性進步,」參與研發ChatGPT的OpenAI科學家Liam Fedus說。
ChatGPT團隊成員當中,有5位被評為2023年度AI 2000 全球人工智慧學者
為此,MIT Technology Review的記者Will Douglas Heaven採訪了OpenAI的共同創辦人John Schulman、開發者Agarwal和Fedus、對齊團隊的負責人Jan Leike。
#創辦人John Schulman表示,ChatGPT發布後幾天,他時不時就會刷推特。有那麼一段瘋狂的時期,推特資訊流中全是ChatGPT的截圖。
他想到了這是一個對使用者很直覺的產品,也想到它會有一些粉絲,但沒想到它會變得這麼主流。
Jan Leike表示,一切都太突然了,所有人都很驚訝,努力地跟上ChatGPT爆火的節奏。他很好奇,到底是什麼在推動它的人氣飆升,難道有什麼幕後推手?畢竟,OpenAI自己都搞不清楚為什麼ChatGPT能這麼火紅。
Liam Fedus解釋了他們如此驚訝的原因,因為ChatGPT並不是第一個通用的聊天機器人,先前就已經有很多人嘗試過了,所以Liam Fedus覺得他們的機會不大。不過,私人測試版也給了他信心——或許,這款A是用戶們真心會喜歡的東西。
Sandhini Agarwal總結道,對所有人來說,ChatGPT一炮而紅都是個驚喜。先前,大家在這些模型上做了太多的工作了,以至於都忘記了對於公司外部的普羅大眾來說,它是如此驚人。
的確,ChatGPT內的大部分技術並不新鮮。它是GPT-3.5的微調版本,而在ChatGPT幾個月前,OpenAI就發布了GPT-3.5。而GPT-3.5本身就是GPT-3的更新版本,GPT-3出現在2020年。
ChatGPT團隊參與先前七大技術研發人數
在網站上,OpenAI以應用程式介面或API的形式提供了這些模型,其他開發者可以輕易地將模型插入自己的程式碼中。
在2022年1月,OpenAI也發表了GPT-3.5的前一個微調版本InstructGPT。只不過,這些技術沒有向大眾推介罷了。
根據Liam Fedus的介紹,ChatGPT模型是由與InstructGPT相同的語言模型微調而來的,使用的微調方法類似。研究人員增加了一些對話數據,並對訓練過程進行了一些調整。所以他們不想把它誇大為一個巨大的基礎性進步。
事實證明,對ChatGPT起了大作用的,是對話數據。
根據標準基準的評估,實際上兩個模型之間的原始技術能力並沒有很大差別,ChatGPT最大的不同是,更容易取得和使用。
Jan Leike解釋說,在某種意義上,可以把ChatGPT理解為OpenAI已有一段時間的AI系統的一個版本。 ChatGPT的能力並沒有更強。在ChatGPT問世之前,同樣的基本模型已經在API上使用了將近一年時間。
而研究者們的改進可以概括為,在某種意義上,讓它更符合人類想用它做什麼。它會在對話中和使用者交談,是一個聊天介面,很容易存取。它更容易推斷出意圖,而使用者可以透過來回試探,來達到自己想要的目的。
秘訣就是,人類回饋強化學習(RLHF)技術,這和InstructGPT的訓練方式很像-教會它人類使用者實際喜歡的樣子。
Jan Leike介紹說,他們讓一大群人閱讀了ChatGPT的提示和回應,然後對回應進行二選一的選擇,看看大家認為哪個回應更好。然後,所有這些數據都被合併到一次訓練中。
它的大部分內容與他們在InstructGPT上所做的內容是一樣的。例如你希望它有幫助的,希望它是真實的,希望它不會惡毒。
另外還有一些細節,例如如果用戶的詢問不清楚,它應該問後續的問題去細化。它也應該澄清,自己是一個人工智慧系統,不應該承擔它沒有的身份,不應該聲稱擁有它所沒有的能力。當使用者要求它做它不該做的任務時,它必須明確拒絕。
也就是有一個清單,列出了人類評分員必須對模型進行排名的各種標準,例如真實性。但他們也會偏愛某些做法,例如AI不要假裝自己是人。
總的來說,ChatGPT用的都是OpenAI已經使用過的技術,所以團隊在準備向公眾發布這個模型時,沒有做任何特別的事情。在他們看來,為先前的模型設定的標準已經足夠了,GPT-3.5已經足夠安全。
而在ChatGPT對人類偏好的訓練中,它自學了拒絕行為,拒絕了許多請求。
OpenAI為ChatGPT組成了一些 「唱紅臉的」人:公司裡的每個人都坐下來,試圖打破這個模型。也有外部團體做同樣的事情。值得信賴的早期用戶也會提供回饋。
Sandhini Agarwal介紹道,他們確實發現了它會產生某些不必要的輸出,但這些都是GPT-3.5也產生的東西。因此,只看風險的話,作為一個「研究預覽」,ChatGPT已經夠好了。
John Schulman也表示,不可能等到一個系統100%完美了,才去發布它。幾個月來,他們對早期版本進行了beta測試,而beta測試人員對ChatGPT的印像都很好。
OpenAI最擔心的,其實是事實性的問題,因為ChatGPT太喜歡捏造東西了。但這些問題在InstructGPT和其他大型語言模型中都存在,所以在研究者看來,只要ChatGPT在事實性和其他安全問題上比那些模型更好,就已經足夠了。
而根據有限的評估,在發布之前,可以確認ChatGPT比其他模型更真實,更安全,因此,OpenAI決定繼續發布。
ChatGPT發布後,OpenAI一直在觀察用戶是如何使用它的。
一個大型語言模型被放在數以千萬計的使用者手中,這種事還是史上第一次。
用戶們也玩瘋了,想測試ChatGPT的極限在哪裡,bug在哪裡。
ChaatGPT的走紅,也讓許多問題湧現出來,例如偏見問題,例如透過prompt誘導的問題。
Jan Leike表示,某些在推特上瘋傳的東西,其實OpenAI已經有人悄悄出手了。
例如越獄問題,絕對是他們需要解決的。使用者就是喜歡嘗試透過一些彎彎繞繞讓模型說不好的話,這在OpenAI的意料之內,也是一條必經之路。
當發現越獄時,OpenAI會把這些情況加入訓練和測試資料中,所有資料都會被納入未來的模型。
Jan Leike表示,每當有一個更好的模型,他們都會想把它拿出來測試。
他們非常樂觀地認為,一些有針對性的對抗性訓練,可以讓越獄的情況得到很大的改善。雖然目前還不清楚這些問題是否會完全消失,但他們認為,自己可以使許多越獄行為變得困難。
當一個系統「正式出道」時,很難預見到所有實際會發生的事情。
因此,他們只能把重點放在監測人們使用系統的目的上,看看會發生什麼,然後對此作出反應。
如今,微軟已經推出了必應Chat,許多人認為它是OpenAI官方未宣布的GPT-4的一個版本。
在這個前提下,Sandhini Agarwal表示,現在他們面臨的,肯定比六個月前高得多,但仍然低於一年後的水平。
這些模型是在什麼背景下被使用的,有極為重要的意義。
對於Google和微軟這樣的大公司,即使有一件事不符合事實,也會成為巨大的問題,因為他們本身就是搜尋引擎。
Google的第23位員工、創建了Gmail的Paul Buchheit,對Google持悲觀態度
作為搜尋引擎的大語言模型,和一個只為了好玩的聊天機器人是完全不同的。 OpenAI的研究者們也在努力弄清楚,如何在不同用途之間遊走,創造出真正對使用者有用的東西。
John Schulman承認,OpenAI低估了人們對ChatGPT政治議題的關心程度。為此,在收集訓練資料時,他們希望做出一些更好的決定,來減少這方面的問題。
Jan Leike表示,從自己的角度來看,ChatGPT經常出現失敗。有太多問題要解決了,但OpenAI並沒有解決。這一點,他坦誠地承認。
儘管語言模型已經存在了一段時間,但仍然處於早期。
接下來,OpenAI需要做的事情,就更多了。
以上是真不是凡爾賽! ChatGPT如此成功,OpenAI也不理解的詳細內容。更多資訊請關注PHP中文網其他相關文章!