ホームページ  >  記事  >  バックエンド開発  >  限られたリソースでの LLAMA またはテキスト分類の微調整

限られたリソースでの LLAMA またはテキスト分類の微調整

王林
王林オリジナル
2024-07-20 18:00:41526ブラウズ

Fine-tuning LLAMA or Text Classification with Limited Resources

最近、仕事で特定のユースケースに合わせて文章を分類する必要がありました。 Jeremy Howard のレッスン 4: まったくの初心者のための NLP の入門を思い出し、私はまず DEBERTA を微調整するために彼のノートブックを適応させました。

それは機能しましたが、満足のいくものではなかったので、LLAMA 3 のような LLM を使用するとどうなるか興味がありました。問題は何ですか?限られた GPU リソース。 Tesla/Nvidia T4 インスタンスのみにアクセスできました。

調査の結果、QLORA にたどり着きました。 QLoRA を使用した株式センチメントのテキスト分類のための LLama 3 LLM の微調整に関するこのチュートリアルは特に役に立ちました。チュートリアルをよりよく理解するために、レッスン 4 を QLORA チュートリアル ノートブックに取り入れました。

QLORA は 2 つの主要なテクニックを使用します:

  1. 量子化: モデルの精度を下げ、モデルを小さくします。
  2. LORA (低ランク適応): モデル全体を微調整する代わりに、小さなトレーニング可能なレイヤーを追加します。

これにより、約 12GB の VRAM を使用して、16GB VRAM T4 で LLAMA 3 8B をトレーニングすることができました。結果は驚くほど良好で、予測精度は 90% 以上でした。

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

プロセスの詳細を説明した iPython ノートブックは次のとおりです。

このアプローチは、限られたハードウェア上で大規模な言語モデルを操作できることを示しています。制約に対処することで、多くの場合、創造的な問題解決や学習の機会が生まれます。この場合、制限があるため、より効率的な微調整テクニックを探索して実装する必要がありました。

以上が限られたリソースでの LLAMA またはテキスト分類の微調整の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。