大語言模型之戰,Stability AI也下場了。
近日, Stability AI宣布推出他們的第一個大語言模型—StableLM。劃重點:它是開源的,在GitHub上已經可用。
模型從3B和7B參數開始,接著會有15B到65B的版本。
並且, Stability AI也發布了用於研究的RLHF微調模型。
#專案網址:https://github.com/Stability-AI/StableLM/
雖然OpenAI不open,但開源的社群已經百花齊放了。以前我們有Open Assistant、Dolly 2.0,現在,我們又有StableLM了。
現在,我們可以在Hugging Face上試試StableLM微調聊天模型的demo。
例如,當你可以問它如何製作花生醬三明治時,它會給你一個複雜、略顯荒謬的食譜。
或寫一首神經網路與符號人工智慧的史詩級饒舌對決:
再或寫一封「吉祥話郵件」(文字生成):
#以及,用C語言計算生命的意義(程式碼產生):
不過,有國外的媒體記者親測了一下StableLM,結果發現:在一本正經地胡說八道這方面,它跟前輩ChatGPT比起來,也是不遑多讓。
例如,如果問它2021年1月6日那天發生了什麼事?它會告訴你:川普的支持者控制了立法機關。
如果Stable LM預期的主要用途並不是文字生成,那它可以做什麼?
如果拿這個問題親自問它,它會說出這樣一些套話,「它主要用作系統工程和體系結構中的決策支援系統,也可以用於統計學習、強化學習等領域。」
另外,Stable LM顯然缺乏對某些敏感內容的保護。例如,給它一個著名的「不要讚美希特勒」測試,它的回答也是令人大跌眼鏡。
不過,咱們倒是不急著管它叫「有史以來最糟糕的語言模型」,畢竟它是開源的,因此這個黑盒子AI允許任何人窺視盒子內部,查一查到底是哪些潛在原因導致了這個問題。
Stability AI官方聲稱:Alpha版本的StableLM有30億和70億個參數,之後還有150億到650億參數的後續版本。
StabilityAI也豪橫地表示,開發者隨便用。只要遵守相關條款,不管是檢查、應用或改編基礎模型,想怎麼來怎麼來。
StableLM功能強大,不光可以產生文字和程式碼,也能為下游應用提供技術基礎。它是一個很好的範例,展示了小型、高效的模型透過適當訓練就可以有足夠高的性能。
早年間,Stability AI和非營利研究中心Eleuther AI一起開發過早期的語言模型,可以說,Stability AI累積很深。
像什麼GPT-J、GPT-NeoX和Pythia,這都是兩家公司合作訓練的產物,在The Pile開源資料集上訓練完成。
而後續的更多開源模型,例如Cerebras-GPT和Dolly-2都是上面三兄弟的後續產品。
說回StableLM,它是在建立在The Pile基礎上的新資料集上訓練的,該資料集包含1.5萬億個token,大約是The Pile的3倍。模型的上下文長度為4096個token。
在即將發布的技術報告中,Stability AI會公佈模型的規模和訓練設定。
作為概念驗證,團隊用史丹佛大學的Alpaca對模型進行了微調,並使用了最近的五個對話代理的資料集的組合:史丹佛大學的Alpaca、Nomic-AI的gpt4all、RyokoAI的ShareGPT52K資料集、Databricks labs的Dolly和Anthropic的HH。
這些模型將作為StableLM-Tuned-Alpha發布。當然,這些微調過的模式僅用於研究,屬於非商業性質。
後續,Stability AI也會公佈新資料集的更多細節。
其中,新資料集十分豐富,這也是為什麼StableLM的效能很棒。雖說參數規模目前來看還是有點小(和GPT-3 1750億個參數相比是這樣的)。
Stability AI表示,語言模型是數位時代的核心,我們希望每個人都能在語言模型中有發言權。
而StableLM的透明性。可訪問性、支持性等特徵也是實踐了這個觀念。
#體現透明性最好的方式就是開源。開發者可以深入模型內部,驗證效能、辨識風險,並且一同開發一些保護措施。有需要的公司或部門也可以就著自己的需求對此模型進行調整。
#每日使用者可以隨時隨地在本機裝置上執行此模型。開發人員可以應用模型來創建並使用硬體相容的獨立應用程式。這樣一來,AI所帶來的經濟利益就不會被某幾個企業瓜分,紅利屬於所有日常用戶和開發者社群。
這是封閉模型所做不到的。
#Stability AI建立模型支援使用者們,而不是取代。換句話說,開發出來便捷好用的AI是為了幫助人們更有效率地處理工作,提供人們的創造力、生產力。而非試圖開發一個天下無敵的東西取代一切。
Stability AI表示,目前這些模型已經在GitHub公佈,未來還會有完整的技術報告問世。
Stability AI期待和廣泛的開發者和研究人員進行合作。同時,他們也表示將啟動眾包RLHF計劃,開放助理合作,為AI助理創建一個開源的資料集。
Stability AI這個名字,對我們來說已經是如雷貫耳了。它正是大名鼎鼎的圖像生成模型Stable Diffusion背後的公司。
如今,隨著StableLM的推出,可以說Stability AI在用AI造福所有人的路上越走越遠了。畢竟,開源一向是他們的優良傳統。
在2022年,Stability AI提供了多種方式讓大家使用Stable Diffusion,包括公開demo、軟體測試版和模型的完整下載,開發人員可以隨意使用模型,進行各種整合。
作為一個革命性的圖像模型,Stable Diffusion代表著一個透明、開放和可擴展的專有AI替代方案。
顯然,Stable Diffusion讓大家看到了開源的各種好處,當然也會有一些無法避免的壞處,但這無疑是一個有意義的歷史節點。
(上個月,Meta的開源模型LLaMA的一場「史詩級」洩漏,產生了一系列表現驚豔的ChatGPT「平替」,羊駝家族像宇宙大爆炸一樣噌噌地誕生:Alpaca、Vicuna、Koala、ChatLLaMA 、FreedomGPT、ColossalChat…)
不過,Stability AI也警告說,雖然它使用的資料集應該有幫助於「將基本的語言模型引導至更安全的文本分佈中,但並不是所有的偏見和毒性都可以透過微調來減輕。」
這些天,我們見證了開源文字生成模型井噴式的成長,因為大大小小的公司都發現了:在越來越有利可圖的生成式AI領域,出名要趁早。
過去一年裡,Meta、Nvidia和像Hugging Face支持的BigScience計畫這樣的獨立團體,都發布了與GPT-4和Anthropic的Claude這些「私有」API模型的平替。
許多研究者嚴厲地批評了這些跟StableLM類似的開源模型,因為可能會有不法分子別有用心地利用它們,比如創建釣魚郵件,或者協助惡意軟體。
但Stablity AI堅持:開源就是最正確的路。
Stability AI強調,「我們把模型開源,是為了提高透明度和培養信任。研究人員可以深入了解這些模型,驗證它們的性能、研究可解釋性技術、識別潛在風險,並協助制定保護措施。」
「對我們模型的開放、細粒度訪問,允許廣大的研究和學術界人士,發展出超越封閉模型的可解釋性和安全性技術。」
Stablity AI的說法確實有道理。就算是GPT-4這樣具有過濾器和人工審核團隊的業界頂尖模型,也無法避免毒性。
並且,開源模型顯然需要更多的努力來調整、修復後端——特別是如果開發人員沒有跟上最新的更新的話。
其實追溯歷史,Stability AI從來沒有迴避過爭議。
前一陣,它就處於侵權法律案件的風口浪尖,有人指控它使用網頁抓取的受版權保護的圖像,開發AI繪圖工具,侵犯了數百萬藝術家的權利。
另外,已經有別有用心的人,利用Stability的AI工具,來產生許多名人的深度偽造色情圖片,和充滿暴力的圖片。
儘管Stability AI在博文中,強調了自己的慈善基調,但Stability AI也面臨著商業化的壓力,無論是藝術、動畫、生物醫學,還是生成音頻領域。
Stability AI CEO Emad Mostaque已經暗示了要上市的計劃,Stability AI去年估值超過了10億美元,並且獲得了超過1億美元的創投。不過,根據外媒Semafor報道,Stability AI「正在燒錢,但在賺錢方面進展緩慢。」
以上是在線體驗70億參數的StableLM大語言模型的穩定擴散時刻的詳細內容。更多資訊請關注PHP中文網其他相關文章!