自從Meta 發布並開源了LLaMA 系列模型,來自斯坦福大學、UC 伯克利等機構的研究者們紛紛在LLaMA 的基礎上進行“二創”,先後推出了Alpaca、Vicuna 等多個“羊駝”大模型。
羊駝已然成為開源社群的新晉頂流。由於「二創」過於豐富,生物學羊駝屬的英文單字快不夠用了,但是用其他動物的名字為大模型命名也是可以的。
最近,UC 柏克萊的柏克萊人工智慧研究院(BAIR)發布了一個可以在消費級 GPU 上運行的對話模型 Koala(直譯為無尾熊)。 Koala 使用從網路收集的對話資料對 LLaMA 模型進行微調。
專案網址:https://bair.berkeley.edu/blog/2023/04/03/koala/
Koala 已經推出線上測試demo:
- Demo 位址: https://chat.lmsys.org/?model=koala-13b
- #開源位址:https://github.com/young-geng/EasyLM
Koala 概述
與Vicuna 類似,Koala 也使用從網路收集的對話資料對LLaMA 模型進行微調,其中重點關注與ChatGPT等閉源大模型對話的公開資料。
研究團隊表示,Koala 模型在 EasyLM 中使用 JAX/Flax 實現,並在配備 8 個 A100 GPU 的單一 Nvidia DGX 伺服器上訓練 Koala 模型。完成 2 個 epoch 的訓練需要 6 小時。在公有雲運算平台上,進行此類訓練的成本通常低於 100 美元。
研究團隊將Koala 與ChatGPT 和史丹佛大學的Alpaca 進行了實驗比較,結果顯示:具有130 億參數的Koala-13B 可以有效地回應各種用戶查詢,產生的反應通常優於Alpaca,並且在超過一半的情況下與ChatGPT 性能相當。
Koala 最重要的意義是它表明:在品質較高的資料集上進行訓練,那麼小到可以在本地運行的模型也可以獲得類似大模型的優秀性能。這意味著開源社群應該更加努力地管理高品質資料集,因為這可能比簡單地增加現有系統的規模更能實現安全、真實和強大的模型。從這個角度看,Koala 是 ChatGPT 一種小而精的平替。
不過,Koala 還只是一個研究原型,在內容、安全性和可靠性方面仍然存在重大缺陷,也不應用於研究以外的任何用途。
資料集和訓練
建立對話模型的主要障礙是管理訓練資料。 ChatGPT、Bard、Bing Chat 和 Claude 等大型對話模型都使用具有大量人工註釋的專有資料集。為了建立 Koala 的訓練資料集,研究團隊從網路和公共資料集中收集對話資料並整理,其中包含使用者公開分享的與大型語言模型(例如 ChatGPT)對話的資料。
不同於其他模型盡可能抓取網路資料來最大化資料集,Koala 是專注於收集小型高品質資料集,包括公共資料集中的問答部分、人類回饋(正面和負面)以及與現有語言模型的對話。具體而言,Koala 的訓練資料集包括以下幾個部分:
ChatGPT 蒸餾資料:
- ##公開可用的與ChatGPT 對話資料(ShareGPT);
- Human ChatGPT 比較語料庫(HC3),其中同時使用來自HC3 資料集的人類和ChatGPT 回應。
開源資料:
- Open Instruction Generalist (OIG);
- 史丹佛Alpaca 模型所使用的資料集;
- ##Anthropic HH ;
- OpenAI WebGPT;
- OpenAI Summarization。
該研究進行了一項人工評估,將Koala-All 與Koala-Distill、Alpaca 和ChatGPT 幾個模型的生成結果進行比較,結果如下圖所示。其中,使用兩個不同的資料集進行測試,一個是史丹佛的 Alpaca 測試集,其中包括 180 個測試查詢(Alpaca Test Set),另一個是 Koala Test Set。
總的來說,Koala 模型足以展示LLM 的許多功能,同時又足夠小,方便進行微調或在計算資源有限的情況下使用。研究團隊希望Koala 模型成為未來大型語言模型學術研究的有用平台,潛在的研究應用方向可能包括:
- 安全性和對齊:Koala 允許進一步研究語言模型的安全性並更好地與人類意圖保持一致。
- 模型偏差:Koala 使我們能夠更好地理解大型語言模型的偏差,深入研究對話資料集的品質問題,最終有助於改進大型語言模型的效能。
- 理解大型語言模型:由於Koala 模型可以在相對便宜的消費級GPU 上運行,並且執行多種任務,因此Koala 使我們能夠更好地檢查和理解對話語言模型的內部結構,使語言模型更具可解釋性。 #
以上是130億參數,8個A100訓練,UC柏克萊發布對話模式Koala的詳細內容。更多資訊請關注PHP中文網其他相關文章!

擁抱Face的OlympicCoder-7B:強大的開源代碼推理模型 開發以代碼為中心的語言模型的競賽正在加劇,擁抱面孔與強大的競爭者一起參加了比賽:OlympicCoder-7B,一種產品

你們當中有多少人希望AI可以做更多的事情,而不僅僅是回答問題?我知道我有,最近,我對它的變化感到驚訝。 AI聊天機器人不僅要聊天,還關心創建,研究

隨著智能AI開始融入企業軟件平台和應用程序的各個層面(我們必須強調的是,既有強大的核心工具,也有一些不太可靠的模擬工具),我們需要一套新的基礎設施能力來管理這些智能體。 總部位於德國柏林的流程編排公司Camunda認為,它可以幫助智能AI發揮其應有的作用,並與新的數字工作場所中的準確業務目標和規則保持一致。該公司目前提供智能編排功能,旨在幫助組織建模、部署和管理AI智能體。 從實際的軟件工程角度來看,這意味著什麼? 確定性與非確定性流程的融合 該公司表示,關鍵在於允許用戶(通常是數據科學家、軟件

參加Google Cloud Next '25,我渴望看到Google如何區分其AI產品。 有關代理空間(此處討論)和客戶體驗套件(此處討論)的最新公告很有希望,強調了商業價值

為您的檢索增強發電(RAG)系統選擇最佳的多語言嵌入模型 在當今的相互聯繫的世界中,建立有效的多語言AI系統至關重要。 強大的多語言嵌入模型對於RE至關重要

特斯拉的Austin Robotaxi發射:仔細觀察Musk的主張 埃隆·馬斯克(Elon Musk)最近宣布,特斯拉即將在德克薩斯州奧斯汀推出的Robotaxi發射,最初出於安全原因部署了一支小型10-20輛汽車,並有快速擴張的計劃。 h

人工智能的應用方式可能出乎意料。最初,我們很多人可能認為它主要用於代勞創意和技術任務,例如編寫代碼和創作內容。 然而,哈佛商業評論最近報導的一項調查表明情況並非如此。大多數用戶尋求人工智能的並非是代勞工作,而是支持、組織,甚至是友誼! 報告稱,人工智能應用案例的首位是治療和陪伴。這表明其全天候可用性以及提供匿名、誠實建議和反饋的能力非常有價值。 另一方面,營銷任務(例如撰寫博客、創建社交媒體帖子或廣告文案)在流行用途列表中的排名要低得多。 這是為什麼呢?讓我們看看研究結果及其對我們人類如何繼續將


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SublimeText3漢化版
中文版,非常好用

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

記事本++7.3.1
好用且免費的程式碼編輯器

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。

SublimeText3 Linux新版
SublimeText3 Linux最新版