自ChatGPT API開放後,大量的研究都選擇利用ChatGPT和GPT-4等大型基礎模型(LFM)的輸出作為訓練數據,然後透過模仿學習來提升小模型的能力。
但由於模仿訊號流在表面、訓練資料量不夠大、缺乏嚴格的評估標準等問題,小模型的實際表現被高估了。
從效果來看,小模型更傾向於模仿LFM的輸出風格,而非推理過程。
論文連結:https://arxiv.org/pdf/2306.02707.pdf
為了回應這些挑戰,微軟最近發布了一篇長達51頁論文,提出了一個130億參數的Orca模型,可以學習模仿LFMs的推理過程。
研究人員為大模型設計了豐富的訓練訊號,使得Orca可以從GPT-4中學習到解釋痕跡、逐步的思考過程、複雜的指令等,並由ChatGPT的教師協助指導;並透過採樣和選擇來挖掘大規模且多樣化的模仿數據,可以進一步提升漸進式學習效果。
在實驗評估中,Orca超過了其他SOTA指令微調模型,在BigBench Hard(BBH)等複雜的零樣本推理基準中實現了比Vicuna-13B翻倍的性能表現,在AGIEval上也實現了42%的性能提升。
此外,Orca在BBH基準上還實現了與ChatGPT持平的性能,在SAT、LSAT、GRE和GMAT等專業和學術考試中只有4%的表現差距,並且都是在沒有思維鏈的零樣本設定下測量的。
研究結果表明,讓模型從逐步解釋中學習,無論這些解釋是由人類還是更高級的人工智慧模型產生的,都是提高模型能力和技能的一個有前景的研究方向。
解釋微調(Explanation Tuning)
#資料集建構
在訓練資料中,每個實例都包含三個部分,分別是係統訊息、使用者查詢和LFM回覆。
系統訊息(system message)放置在提示中開頭的部分,提供給LFM基本的上下文、引導以及其他相關的細節。
系統訊息可以用來改變回覆的長度、描述AI助理的性格、建立可接受和不可接受的LFM行為,並確定AI模型的回應結構。
######研究人員手工製作了16個系統資訊來設計LFM不同類型的回复,可以產生創造性的內容以及解決資訊查詢問題,最重要的是能夠根據提示生成解釋和逐步推理的答案。 ######################## 使用者查詢(user query)###定義了希望LFM執行的實際任務。 ############為了獲得大量的、多樣化的用戶查詢,研究人員利用FLAN-v2集合,從中抽取500萬個用戶查詢(FLAN-5M),並收集ChatGPT的回應;接著進一步從500萬條指令中抽出100萬條指令(FLAN-1M),收集GPT-4的回覆。 ############FLAN-v2集合由五個子集合組成,分別是CoT、NiV2、T0、Flan 2021和Dialogue,其中每個子集包含多個任務,每個任務都是一個查詢的集合。 ######每個子集合都與多個學術資料集相關,並且每個資料集都有一個或多個任務,主要關注零樣本和少樣本的查詢。
在這項工作中,研究人員只取樣訓練Orca的零樣本查詢,並且沒有從Dialogue子集中取樣,因為這些查詢往往缺乏背景,無法從ChatGPT中獲得有用的回覆。
讓ChatGPT扮演Teaching Assistant
先在FLAN-5M資料上訓練Orca (ChatGPT增強),隨後在FLAN-1M上進行第二階段的訓練(GPT-4增強)。
以ChatGPT作為中間的教師助手主要有兩個原因:
1. 能力差距
雖然GPT-4的參數量沒有公開,但130億參數的Orca肯定比GPT-4小很多倍,而ChatGPT和Orca之間的能力差距更小,更適合作為中間教師,並且這種方式已經被證明可以提高更小的學生模型在知識蒸餾中的模仿學習表現。
這種方式也可以看作是一種漸進式學習或課程學習,學生首先從較容易的例子中學習,然後再學習較難的例子,假定了較長的回覆會比較短的回覆更難模仿,可以從更大規模的教師模型中改進推理和逐步解釋能力。
2. 成本與時間
#從Azure OpenAI API進行大規模資料收集時會受到一些限制,包括每分鐘請求的速率限制,防止流量過大;由於服務延遲問題,每分鐘可用的token數量有限;提示長度和token補全的金錢成本。
相比之下,ChatGPT API比GPT-4終端更快、更便宜,所以從ChatGPT收集了比GPT-4多5倍的數據。
從ChatGPT和GPT-4對應到不同系統訊息的回覆長度分佈中可以觀察到,GPT-4的回覆平均比ChatGPT長1.5倍,使得Orca能夠逐步從教師解釋的複雜性中學習,並透過消融實驗證明了教師幫助的影響。
訓練
#在分詞階段,研究者利用LLaMA的位元組對編碼(BPE)分詞器來處理輸入的樣本,其中多位數字會被分割成多個單數字,並回落到位元組來分解未知的UTF-8字元。
為了處理可變長度的序列,在LLaMA分詞器的詞彙表中引入了一個填充詞[[PAD]],最終的詞彙表包含32001個token
為了優化訓練過程並有效利用可用的運算資源,研究人員利用了packing技術,將多個輸入實例串聯成一個序列後再訓練模型。
在packing的過程中,串聯序列的總長度不超過max_len=2048 tokens,對輸入的樣本進行隨機打亂後將分成幾組,每組串聯序列的長度最多為max_len
考慮到訓練資料中增強指令的長度分佈,每個序列的打包係數為2.7
為了訓練Orca,研究人員選擇只計算教師模型生成token的損失,也就是說學習生成以系統資訊和任務指令為條件的回复,可以確保模型專注於從最相關和最有資訊的token中學習,提高了訓練過程的整體效率和效果。
最後在20個裝有80GB記憶體的NVIDIA A100 GPU上訓練Orca,先在FLAN-5M(ChatGPT增強)上訓練4個epoch,花了160個小時;然後在FLAN-1M(GPT -4增強)上繼續訓練4個epoch
由於流量限制、終端負載以及回复的長度問題,從GPT-3.5-turbo(ChatGPT)和GPT-4的多個終端收集資料分別花了2週和3週的時間。
實驗部分
研究人員主要驗證了Orca在推理上的能力。
在AGIEval的實驗中可以看到,Orca的表現與Text-da-Vinci-003相當,並實現了ChatGPT 88%的性能表現,不過明顯落後於GPT-4
對於分析和推理任務,Vicuna的表現明顯更差,只保留了62%的ChatGPT質量,表明這種開源語言模型的推理能力很差。
雖然Orca與Text-da-Vinci-003的表現相當,但仍比ChatGPT低5分,Orca在與數學相關的任務(在SAT、GRE、GMAT中)上與ChatGPT表現出較大的差距。
與Vicuna相比,Orca顯示出更強的性能,在每個類別上都超過了Vicuna,平均有42%的相對提高。
GPT-4的表現遠遠超過了所有其他模型,但在這個基準中仍有很大的提升空間,目前所有模型的性能都明顯低於人類的得分。
Orca的效能根據系統資訊的類型有很大的不同,對於訓練的模型來說,空的系統訊息往往效果很好。
Orca在不同任務的325個樣本中超越了ChatGPT(Orca-beats-ChatGPT範例),其中大部分來自LogiQA(29% ),而其他LSAT任務和SAT-英文任務各佔不到10%
#在Big-Bench Hard Results資料集上的推理評估結果顯示,Orca在所有任務中的綜合表現上略好於ChatGPT,但明顯落後GPT-4;比Vicuna表現高出113%
##
以上是「模仿學習」只會套話?解釋微調+130億參數Orca:推理能力打平ChatGPT的詳細內容。更多資訊請關注PHP中文網其他相關文章!

CHATGPT SECURICE增強:兩階段身份驗證(2FA)配置指南 需要兩因素身份驗證(2FA)作為在線平台的安全措施。本文將以易於理解的方式解釋2FA設置過程及其在CHATGPT中的重要性。這是為那些想要安全使用chatgpt的人提供的指南。 單擊此處獲取OpenAI最新的AI代理OpenAi Deep Research⬇️ [chatgpt]什麼是Openai深入研究?關於如何使用它和費用結構的詳盡解釋! 目錄 chatg
![[針對企業] Chatgpt培訓|對8種免費培訓選項,補貼和示例進行了詳盡的介紹!](https://img.php.cn/upload/article/001/242/473/174704251871181.jpg?x-oss-process=image/resize,p_40)
生成的AI的使用吸引了人們的關注,這是提高業務效率和創造新業務的關鍵。特別是,由於其多功能性和準確性,許多公司都採用了Openai的Chatgpt。但是,可以有效利用chatgpt的人員短缺是實施它的主要挑戰。 在本文中,我們將解釋“ ChatGpt培訓”的必要性和有效性,以確保在公司中成功使用Chatgpt。我們將介紹廣泛的主題,從ChatGpt的基礎到業務使用,特定的培訓計劃以及如何選擇它們。 CHATGPT培訓提高員工技能

社交媒體運營的提高效率和質量至關重要。特別是在實時重要的平台上,例如Twitter,需要連續交付及時和引人入勝的內容。 在本文中,我們將解釋如何使用具有先進自然語言處理能力的AI的Chatgpt操作Twitter。通過使用CHATGPT,您不僅可以提高實時響應功能並提高內容創建的效率,而且還可以製定符合趨勢的營銷策略。 此外,使用預防措施
![[對於Mac]說明如何開始以及如何使用ChatGpt桌面應用程序!](https://img.php.cn/upload/article/001/242/473/174704239752855.jpg?x-oss-process=image/resize,p_40)
CHATGPT MAC桌面應用程序詳細指南:從安裝到音頻功能 最後,Chatgpt的Mac桌面應用程序現已可用!在本文中,我們將徹底解釋從安裝方法到有用的功能和將來的更新信息的所有內容。使用桌面應用程序獨有的功能,例如快捷鍵,圖像識別和語音模式,以極大地提高您的業務效率! 安裝桌面應用的ChatGpt Mac版本 從瀏覽器訪問:首先,在瀏覽器中訪問chatgpt。

當使用chatgpt時,您是否曾經有過這樣的經驗,例如“輸出在中途停止”或“即使我指定了字符的數量,它也無法正確輸出”?該模型非常開創性,不僅允許自然對話,而且還允許創建電子郵件,摘要論文,甚至允許產生諸如小說之類的創意句子。但是,ChatGpt的弱點之一是,如果文本太長,輸入和輸出將無法正常工作。 Openai的最新AI代理“ Openai Deep Research”

Chatgpt是Openai開發的創新AI聊天機器人。它不僅具有文本輸入,而且還具有語音輸入和語音對話功能,從而可以進行更自然的交流。 在本文中,我們將解釋如何設置和使用Chatgpt的語音輸入和語音對話功能。即使您不能脫身,Chatp Plans也通過與您交談來做出回應並回應音頻,這在繁忙的商業情況和英語對話練習等各種情況下都帶來了很大的好處。 關於如何設置智能手機應用程序和PC的詳細說明以及如何使用。

成功的快捷方式!使用chatgpt有效的工作變更策略 在當今加劇的工作變更市場中,有效的信息收集和徹底的準備是成功的關鍵。 諸如Chatgpt之類的高級語言模型是求職者的強大武器。在本文中,我們將解釋如何有效利用Chatgpt來提高您的工作企業效率,從自我分析到申請文件和麵試準備。節省時間和學習技術,以充分展示您的優勢,並幫助您成功搜索工作。 目錄 使用chatgpt的狩獵工作示例 自我分析的效率:聊天

思維地圖是組織信息並提出想法的有用工具,但是創建它們可能需要時間。使用Chatgpt可以大大簡化此過程。 本文將詳細說明如何使用chatgpt輕鬆創建思維地圖。此外,通過創建的實際示例,我們將介紹如何在各種主題上使用思維圖。 了解如何使用Chatgpt有效地組織和可視化您的想法和信息。 Openai的最新AI代理OpenA


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

WebStorm Mac版
好用的JavaScript開發工具

SublimeText3漢化版
中文版,非常好用

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

PhpStorm Mac 版本
最新(2018.2.1 )專業的PHP整合開發工具