Heim  >  Artikel  >  Backend-Entwicklung  >  Feinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen

Feinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen

王林
王林Original
2024-07-20 18:00:41526Durchsuche

Fine-tuning LLAMA or Text Classification with Limited Resources

Ich musste kürzlich Sätze für einen bestimmten Anwendungsfall bei der Arbeit klassifizieren. Ich erinnerte mich an Jeremy Howards Lektion 4: Erste Schritte mit NLP für absolute Anfänger und passte zunächst sein Notizbuch an, um DEBERTA zu verfeinern.

Es hat funktioniert, aber nicht zu meiner Zufriedenheit, also war ich neugierig, was passieren würde, wenn ich ein LLM wie LLAMA 3 verwenden würde. Das Problem? Begrenzte GPU-Ressourcen. Ich hatte nur Zugriff auf eine Tesla/Nvidia T4-Instanz.

Recherchen führten mich zu QLORA. Dieses Tutorial zur Feinabstimmung von LLama 3 LLM für die Textklassifizierung der Aktienstimmung mithilfe von QLoRA war besonders nützlich. Um das Tutorial besser zu verstehen, habe ich Lektion 4 in das QLORA-Tutorial-Notizbuch übernommen.

QLORA verwendet zwei Haupttechniken:

  1. Quantisierung: Reduziert die Modellgenauigkeit und macht es kleiner.
  2. LORA (Low-Rank Adaptation): Fügt kleine, trainierbare Schichten hinzu, anstatt das gesamte Modell zu optimieren.

Dadurch konnte ich LLAMA 3 8B auf einem 16 GB VRAM T4 trainieren und dabei etwa 12 GB VRAM verwenden. Die Ergebnisse waren überraschend gut, mit einer Vorhersagegenauigkeit von über 90 %.

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

Hier ist das iPython-Notizbuch, das den Prozess detailliert beschreibt.

Dieser Ansatz zeigt, dass es möglich ist, mit großen Sprachmodellen auf begrenzter Hardware zu arbeiten. Die Arbeit mit Einschränkungen führt oft zu kreativen Problemlösungs- und Lernmöglichkeiten. In diesem Fall drängten mich die Einschränkungen dazu, effizientere Feinabstimmungstechniken zu erforschen und zu implementieren.

Das obige ist der detaillierte Inhalt vonFeinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn