搜尋
首頁科技週邊人工智慧首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

我們知道,從Google T5 模型到 OpenAI GPT 系列大模型,大語言模型(LLMs)已經展現了令人印象深刻的泛化能力,例如上下文學習和思維鏈推理。同時為了使得 LLMs 遵循自然語言指令和完成真實世界任務,研究人員一直在探索 LLMs 的指令微調方法。實作方式有兩種:一是使用人類標註的 prompt 和回饋在廣泛任務上微調模型,二是使用透過手動或自動產生指令增強的公共基準和資料集來監督微調。

在這些方法中,Self-Instruct 微調是一種簡單有效的方法,它從SOTA 指令微調的教師LLMs 產生的指令遵循資料中學習,使得LLMs 與人類意圖對齊。事實證明,指令微調已成為提升 LLMs 零樣本和小樣本泛化能力的有效手段。

最近,ChatGPT 和 GPT-4 的成功為使用指令微調來改進開源 LLMs 提供了巨大的機會。 Meta LLaMA 是一系列開源 LLMs,其性能與 GPT-3 等專有 LLMs 相媲美。為了教導 LLaMA 遵循指令,Self-Instruct 因其卓越性能和低成本而被快速採用。例如史丹佛的 Alpaca 模型使用 GPT-3.5 產生的 52k 指令遵循樣本,Vicuna 模型使用約 70k 來自 ShareGPT 的指令遵循樣本。

為了推進LLMs 指令微調的SOTA 水平,微軟研究院在其論文《Instruction Tuning with GPT-4》中首次使用GPT-4 作為教師模型進行self-intruct 微調。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

  • 論文網址:https://arxiv.org/pdf/2304.03277.pdf
  • #專案位址:https://instruction-tuning-with-gpt-4.github.io/
  • GitHub 網址:https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM

研究者一方面發布了GPT-4 產生的數據,包括中英文的52k 指令遵循數據集、GPT-4 產生的對三種指令微調模型的輸出進行評級的回饋數據。 

另一方面基於 GPT-4 產生的資料開發了指令微調的 LLaMA 模型和獎勵模型。為了評估指令微調LLMs 的質量,研究者使用三個指標對測試樣本進行評估:對三個對齊標準的人工評估、基於GPT-4 反饋的自動評估以及非自然指令的ROUGE-L(自動文摘評測方法之一)。

實驗結果驗證了使用 GPT-4 產生的資料進行 LLMs 指令微調的有效性。 GPT-4 產生的 52k 中英指令遵循資料在新任務上實現了較以往 SOTA 模型更好的零樣本效能。目前,研究者已經公開了使用 GPT-4 產生的數據以及相關代碼。

資料集

該研究使用 GPT-4 產生以下四個資料集:

#
  • 英文指令遵循資料集(English Instruction-Following Data):對於從 Alpaca 收集到的 52K 指令,每個指令都提供了一個英文 GPT-4 答案。此資料集主要用來探索和比較 GPT-4 答案和 GPT-3 答案的資料統計。
  • 中文指令遵循資料集(Chinese Instruction-Following Data):研究使用 ChatGPT 將 52K 指令翻譯成中文,並要求 GPT-4 用中文回答。
  • 比較數據(Comparison Data):讓 GPT-4 給自己的反應評分,分數範圍從 1 到 10。此外,研究還要求 GPT-4 對 GPT-4、GPT-3.5 和 OPT-IML 三種模型的反應進行比較和評分。這資料集主要用來訓練獎勵模型。
  • 非自然指令的回答(Answers on Unnatural Instructions):GPT-4 的答案在 68K 指令 - 輸入 - 輸出三組核心資料集上解碼。此子集用於量化 GPT-4 與指令微調模型之間的差距。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

圖 1 比較了 GPT-4 和 GPT-3.5 的英文輸出回應集。圖1 (a) 和(b) 顯示了兩個輸出集合頻率高於10 的動- 名詞對(verb-noun pairs),圖1 (c) 比較了兩個集合中出現頻率最高的25 對單詞,圖1 (d) 比較了序列長度的頻率分佈,結果顯示,GPT-4 傾向於產生比GPT-3.5 更長的序列。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

指令微調語言模型

#該研究基於LLaMA 7B checkpoint、並使用監督微調訓練了兩個模型:( i) LLaMA-GPT4 ,在GPT-4 產生的52K 英語指令遵循資料上訓練。 (ii) LLaMA-GPT4-CN,在來自 GPT-4 產生的 52K 中文指令遵循資料上訓練完成。

獎勵模型

#人類回饋強化學習(RLHF) 旨在使LLM 行為與人類偏好保持一致,獎勵建模是其關鍵部分之一,這個問題被往往公式化為回歸任務,以預測給定提示和反應之間的獎勵。但這種方法通常需要大規模的比較數據,現有開源模型如 Alpaca、Vicuna 和 Dolly 由於標註比較數據成本很高,因此不涉及 RLHF。同時,最近的研究表明,GPT-4 能夠識別和修復自己的錯誤,並準確判斷反應的品質。因此,為了促進 RLHF 的研究,該研究使用 GPT-4 創建了比較數據,如上所述。

為了評估資料質量,該研究還訓練了一個基於 OPT 1.3B 的獎勵模型進行該資料集的評估。比較數據的分佈如圖 2 所示。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

實驗

該研究利用以下三種類型進行評估:人類評估、GPT-4 以及非自然指令評估。結果證實,與其他機器產生的數據相比,使用 GPT-4 產生的數據是進行 LLM 指令微調的一種高效且有效的方法。接下來我們來看看具體實驗過程。

人類評估

#圖3 (a) 為LLaMA-GPT4 vs Alpaca 比較結果,實驗顯示在Helpfulness 這項指標下,GPT-4 以54.12% 的得分勝出。圖 3 (b) 為 LLaMA-GPT4 vs GPT-4 比較結果,顯示 GPT-4 指令微調的 LLaMA 的表現與原始的 GPT-4 類似。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

與使用自動求值的 SOTA 進行比較

研究使用 GPT-4 對不同模型在 80 個未見問題上的回答進行自動評估。首先從LLaMA-GPT-4 (7B) 和GPT-4 兩個聊天機器人中收集答案,並使用其他聊天機器人發布答案,包括LLaMA (13B),Alpaca (13B),Vicuna (13B),Bard (谷歌, 2023) 和ChatGPT。對於每次評估,研究要求 GPT-4 對兩個模型之間的反應品質進行評分,評分範圍從 1 到 10。結果如圖 4 所示。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

圖 4 (c,d) 比較了所有聊天機器人。 LLaMA_GPT4 性能更高:7B LLaMA GPT4 的性能優於 13B Alpaca 和 LLaMA。然而,LLaMA_GPT4 與 GPT-4 等大型商業聊天機器人相比,仍有差距。

研究者在下圖 5 中進一步研究了所有聊天機器人的表現。首先使用 GPT-4 將聊天機器人的英文回應翻譯成中文,接著使用 GPT-4 將英文問題翻譯成中文以獲得答案。與 GPT-4 翻譯和產生的中文回應的比較如 5 (a) 和 5 (b) 所示,5 (c) 中顯示了所有被要求用中文回答的模型結果。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

在下圖 6 中,研究者將 LLaMA-GPT4 與 GPT-4、Alpaca 非自然指令進行比較。結果顯示,LLaMA-GPT4 和 GPT-4 隨 ground truth 反應長度的增加表現較好。這意味著當場景更具創意時,它們可以更好地遵循指令。當序列長度較短時,LLaMA-GPT4 和 GPT-4 都能產生包含簡單 ground truth 答案的回應,並且添加額外單字可以讓回應更像聊天。

首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升

更多技術和實驗細節請參閱原始論文。

以上是首次:微軟用GPT-4做大模型指令微調,新任務零樣本效能再提升的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
AI技能差距正在減慢供應鏈AI技能差距正在減慢供應鏈Apr 26, 2025 am 11:13 AM

經常使用“ AI-Ready勞動力”一詞,但是在供應鏈行業中確實意味著什麼? 供應鏈管理協會(ASCM)首席執行官安倍·埃什肯納齊(Abe Eshkenazi)表示,它表示能夠評論家的專業人員

一家公司如何悄悄地努力改變AI一家公司如何悄悄地努力改變AIApr 26, 2025 am 11:12 AM

分散的AI革命正在悄悄地獲得動力。 本週五在德克薩斯州奧斯汀,Bittensor最終遊戲峰會標誌著一個關鍵時刻,將分散的AI(DEAI)從理論轉變為實際應用。 與閃閃發光的廣告不同

NVIDIA釋放NEMO微服務以簡化AI代理開發NVIDIA釋放NEMO微服務以簡化AI代理開發Apr 26, 2025 am 11:11 AM

企業AI面臨數據集成挑戰 企業AI的應用面臨一項重大挑戰:構建能夠通過持續學習業務數據來保持準確性和實用性的系統。 NeMo微服務通過創建Nvidia所描述的“數據飛輪”來解決這個問題,允許AI系統通過持續接觸企業信息和用戶互動來保持相關性。 這個新推出的工具包包含五個關鍵微服務: NeMo Customizer 處理大型語言模型的微調,具有更高的訓練吞吐量。 NeMo Evaluator 提供針對自定義基準的AI模型簡化評估。 NeMo Guardrails 實施安全控制,以保持合規性和適當的

AI為藝術與設計的未來描繪了一幅新圖片AI為藝術與設計的未來描繪了一幅新圖片Apr 26, 2025 am 11:10 AM

AI:藝術與設計的未來畫卷 人工智能(AI)正以前所未有的方式改變藝術與設計領域,其影響已不僅限於業餘愛好者,更深刻地波及專業人士。 AI生成的藝術作品和設計方案正在迅速取代傳統的素材圖片和許多交易性設計活動中的設計師,例如廣告、社交媒體圖片生成和網頁設計。 然而,專業藝術家和設計師也發現AI的實用價值。他們將AI作為輔助工具,探索新的美學可能性,融合不同的風格,創造新穎的視覺效果。 AI幫助藝術家和設計師自動化重複性任務,提出不同的設計元素並提供創意輸入。 AI支持風格遷移,即將一種圖像的風格應用

Zoom如何徹底改變與Agent AI的合作:從會議到里程碑Zoom如何徹底改變與Agent AI的合作:從會議到里程碑Apr 26, 2025 am 11:09 AM

Zoom最初以其視頻會議平台而聞名,它通過創新使用Agentic AI來引領工作場所革命。 最近與Zoom的CTO XD黃的對話揭示了該公司雄心勃勃的願景。 定義代理AI 黃d

對大學的存在威脅對大學的存在威脅Apr 26, 2025 am 11:08 AM

AI會徹底改變教育嗎? 這個問題是促使教育者和利益相關者的認真反思。 AI融入教育既提出了機遇和挑戰。 正如科技Edvocate的馬修·林奇(Matthew Lynch)所指出的那樣

原型:美國科學家正在國外尋找工作原型:美國科學家正在國外尋找工作Apr 26, 2025 am 11:07 AM

美國科學研究和技術發展或將面臨挑戰,這或許是由於預算削減導致的。據《自然》雜誌報導,2025年1月至3月期間,美國科學家申請海外工作的數量比2024年同期增加了32%。此前一項民意調查顯示,75%的受訪研究人員正在考慮前往歐洲和加拿大尋找工作。 過去幾個月,數百項NIH和NSF的撥款被終止,NIH今年的新撥款減少了約23億美元,下降幅度接近三分之一。洩露的預算提案顯示,特朗普政府正在考慮大幅削減科學機構的預算,削減幅度可能高達50%。 基礎研究領域的動盪也影響了美國的一大優勢:吸引海外人才。 35

所有有關打開AI最新的GPT 4.1家庭的信息 - 分析Vidhya所有有關打開AI最新的GPT 4.1家庭的信息 - 分析VidhyaApr 26, 2025 am 10:19 AM

Openai推出了強大的GPT-4.1系列:一個專為現實世界應用設計的三種高級語言模型家族。 這種巨大的飛躍提供了更快的響應時間,增強的理解和大幅降低了成本

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器