首頁  >  文章  >  科技週邊  >  智源等機構發布LM-Cocktail模型的多技能大模型治理策略

智源等機構發布LM-Cocktail模型的多技能大模型治理策略

PHPz
PHPz轉載
2023-12-14 18:31:02807瀏覽

隨著大模型技術的發展與落地,「模型治理」成為了目前受到重點關注的命題。只不過,在實務中,研究者往往感受到多重挑戰。

一方面,為了高其在目標任務的表現表現,研究者會收集並建構目標任務資料集並對大語言模型(LLM)進行微調,但這種方式通常會導致目標任務以外的一般任務的表現明顯下降,損害LLM 原本具備的通用能力。

另一方面,開源社群的模型逐漸增多,大模型開發者也可能在多次訓練中累積了越來越多的模型,每個模型都具有各自的優勢,如何選擇合適的模型執行任務或進一步微調反而成為一個問題。

近日,智源研究院資訊檢索與知識計算組發布 LM-Cocktail 模型治理策略,旨在為大模型開發者提供一個低成本持續提升模型效能的方式:透過少量範例計算融合權重,借助模型融合技術融合微調模型與原模型的優勢,實現「模型資源」的高效利用。

智源等機構發布LM-Cocktail模型的多技能大模型治理策略


  • #技術報告:https://arxiv.org/abs/2311.13534
  • #程式碼:https://github.com/FlagOpen/FlagEmbedding/tree/master/LM_Cocktail

模型融合技術可以透過融合多個模型提高單模型的性能。受此啟發,LM-Cocktail 策略進一步透過對目標任務計算不同模型的重要性,賦予不同模型不同的權重,在此基礎上進行模型融合,在提升目標任務上性能的同時,保持在通用任務上的強大能力。

LM-Cocktail 策略的作用類似於製作雞尾酒,它可以將各個模型的優勢能力匯總起來,透過調配不同的模型,創造出一個擁有多種專長的「多才」模型

方法創新

具體而言,LM-Cocktail 可以透過手動選擇模型配比,或輸入少量樣例自動計算加權權重,來融合現有模型產生一個新模型,該過程不需要對模型進行重新訓練並且具備適配多種結構的模型,如大語言模型Llama,語義向量模型BGE 等。

如果開發者缺乏某些目標任務的標籤數據,或者缺少計算資源進行模型微調,那麼可以採用LM-Cocktail策略來省去模型微調的步驟。只要建構極少量的資料範例,就可以融合開源社群中已有的大型語言模型,以調製自己的「LM雞尾酒」

智源等機構發布LM-Cocktail模型的多技能大模型治理策略

##如上圖所示,在特定目標任務上微調Llama,可以顯著提高目標任務上的準確度,但損害了在其他任務上的通用能力。採用 LM-Cocktail 可以解決這個問題。

LM-Cocktail 的核心是將微調後的模型與多個其他模型的參數進行融合,整合多個模型的優點,在提高目標任務上準確度的同時,保持在其他任務上的通用能力。具體形式為,給定目標任務、基礎模型,以及一個在該任務上微調基礎模型後所得到的模型,同時收集開源社群或以往訓練過的模型組成集合。透過目標任務上少量的範例計算每個模型的融合加權權重,對這些模型的參數進行加權求和,得到新的模型(具體的過程請參考論文或開源程式碼)。如果開源社群不存在其他模型,也可以直接整合基礎模型和微調模型,在不降低通用能力的基礎上提升下游任務表現。 使用者在實際應用場景中,由於資料和資源的限制,可能無法進行下游任務的微調,即沒有在目標任務微調過後的模型。在這種情況下,使用者可以透過建構非常少量的資料範例融合社群中已有的大語言模型,產生一個面向新任務的模型,提高目標任務的準確度,而無需對模型進行訓練。

#########實驗結果###############1.彈性微調以維持通用能力#########

智源等機構發布LM-Cocktail模型的多技能大模型治理策略

從上圖中可以看到,在某個目標任務上進行微調之後,微調後的模型大幅提高了在該任務上的準確度,但其他通用任務上的準確度都有下降。例如,在 AG News 到訓練集上進行微調,Llama 在 AG News 測試集上準確度從 40.80% 漲到 94.42%,但在其他任務上準確度從 46.80% 下降到了 38.58%。

然而,透過簡單的融合微調後模型和原始模型的參數,在目標任務上實現了具有競爭力的性能94.46%,與微調模型相當,同時在其他任務上準確度為47.73%, 甚至稍強於原模型的性能。在某些任務下,如Helleswag, 融合後的模型甚至可以在該微調任務上超過微調後的模型,並在其他任務上超過原始通用模型,即在繼承微調模型和原模型的優點的同時,超過了他們。可以看出,透過 LM-Cocktail 計算融合比例,進一步融合其他微調模型,可以在確保目標任務準確度的同時,進一步提昇在其他任務上的通用效能。

2. 混合已有模型處理新任務

智源等機構發布LM-Cocktail模型的多技能大模型治理策略

重寫後來的內容:圖表展示了語言模型目標任務MMLU

智源等機構發布LM-Cocktail模型的多技能大模型治理策略

#重寫後的內容:圖片:向量模型的目標任務是檢索(訊息檢索)

微調模型需要大量的數據,同時需要大量的運算資源,尤其是微調大語言模型,這些在實際情況中不一定可以實現。在無法對目標任務進行微調的情況下,LM- Cocktail 可以透過混合現有的模型(來自開源社群或自己歷史訓練累積)來實現新的能力。

透過只給定5 個樣例數據,LM-Cocktail 自動計算融合加權權重,從現有的模型進行篩選然後融合得到新的模型,而無需使用大量數據進行訓練。實驗發現,產生的新模型可以在新的任務上得到更高的準確度。例如,對於 Llama,透過 LM- Cocktail 整合現有 10 個模型(其訓練任務都與 MMLU 榜單無關),可以取得明顯的提升,並且要高於使用 5 個範例資料進行情境學習的 Llama 模型。

請嘗試使用LM-Cocktail,我們歡迎您透過GitHub issue提供回饋與建議:https://github.com/FlagOpen/FlagEmbedding/tree/master/LM_Cocktail

以上是智源等機構發布LM-Cocktail模型的多技能大模型治理策略的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除