首頁  >  文章  >  後端開發  >  以有限的資源微調 LLAMA 或文本分類

以有限的資源微調 LLAMA 或文本分類

王林
王林原創
2024-07-20 18:00:41523瀏覽

Fine-tuning LLAMA or Text Classification with Limited Resources

我最近需要在工作中對特定用例的句子進行分類。記得 Jeremy Howard 的第 4 課:針對絕對初學者的 NLP 入門,我首先改編了他的筆記本來微調 DEBERTA。

它有效,但並不令我滿意,所以我很好奇如果我使用像 LLAMA 3 這樣的法學碩士會發生什麼。問題是什麼? GPU 資源有限。我只能存取 Tesla/Nvidia T4 實例。

研究讓我找到了 QLORA。這個關於使用 QLoRA 微調 LLama 3 LLM 進行股票情緒文字分類的教學特別有用。為了更好地理解本教程,我將第 4 課改編到了 QLORA 教程筆記本中。

QLORA 使用兩種主要技術:

  1. 量化:降低模型精度,使其更小。
  2. LORA(低階適應):增加小型可訓練層,而不是微調整個模型。

這讓我能夠在 16GB VRAM T4 上訓練 LLAMA 3 8B,使用大約 12GB 的 VRAM。結果出奇的好,預測準確率超過90%。

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

這是一本詳細介紹流程的 iPython 筆記本。

這種方法顯示可以在有限的硬體上使用大型語言模型。在限制條件下工作通常會帶來創造性的問題解決和學習機會。在這種情況下,這些限制促使我去探索和實施更有效率的微調技術。

以上是以有限的資源微調 LLAMA 或文本分類的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn