最近、仕事で特定のユースケースに合わせて文章を分類する必要がありました。 Jeremy Howard のレッスン 4: まったくの初心者のための NLP の入門を思い出し、私はまず DEBERTA を微調整するために彼のノートブックを適応させました。
それは機能しましたが、満足のいくものではなかったので、LLAMA 3 のような LLM を使用するとどうなるか興味がありました。問題は何ですか?限られた GPU リソース。 Tesla/Nvidia T4 インスタンスのみにアクセスできました。
調査の結果、QLORA にたどり着きました。 QLoRA を使用した株式センチメントのテキスト分類のための LLama 3 LLM の微調整に関するこのチュートリアルは特に役に立ちました。チュートリアルをよりよく理解するために、レッスン 4 を QLORA チュートリアル ノートブックに取り入れました。
QLORA は 2 つの主要なテクニックを使用します:
これにより、約 12GB の VRAM を使用して、16GB VRAM T4 で LLAMA 3 8B をトレーニングすることができました。結果は驚くほど良好で、予測精度は 90% 以上でした。
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
プロセスの詳細を説明した iPython ノートブックは次のとおりです。
このアプローチは、限られたハードウェア上で大規模な言語モデルを操作できることを示しています。制約に対処することで、多くの場合、創造的な問題解決や学習の機会が生まれます。この場合、制限があるため、より効率的な微調整テクニックを探索して実装する必要がありました。
以上が限られたリソースでの LLAMA またはテキスト分類の微調整の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。