Heim >Technologie-Peripheriegeräte >KI >Ist Reft alles, was wir brauchten?

Ist Reft alles, was wir brauchten?

王林
王林Original
2025-02-25 19:49:12894Durchsuche

Reft: Ein revolutionärer Ansatz zur Feinabstimmung LLMs

Reft (Repräsentation Fonetuning), eingeführt in Stanfords Papier im Mai 2024, bietet eine bahnbrechende Methode für effizient Feinabstimmungsmodelle (LLMs). Sein Potenzial wurde sofort erkennbar und wurde in nur 14 Minuten durch Oxen.

Im Gegensatz zu vorhandenen Parameter-effizienten Fine-Tuning-Methoden (PEFT) wie LORA, die Modellgewichte oder Eingabe modifizieren, nutzt REFT die Methode Distributed Interchange Intervention (DII). Dii-Projekte verbringen in einen niedrigerdimensionalen Unterraum und ermöglichen die Feinabstimmung durch diesen Unterraum.

Dieser Artikel bewertet die beliebten PEFT -Algorithmen (Lora, sofortiges Tuning, Präfix -Tuning) und erklärt DII, bevor er sich in REFT und seine experimentellen Ergebnisse einleitet.

Is ReFT All We Needed?

parametereffizientes Fine-Tuning (PEFT) -Techniken

Umarmendge Gesicht bietet einen umfassenden Überblick über PEFT -Techniken. Fassen wir kurz die Schlüsselmethoden zusammen:

lora (Anpassung mit niedriger Rang): Eingeführt im Jahr 2021 hat Loras Einfachheit und Generalisierbarkeit eine führende Technik für feine StimmungslLMs und Diffusionsmodelle gemacht. Anstatt alle Schichtgewichte anzupassen, fügt LORA niedrige Matrizen hinzu, wodurch die trainierbaren Parameter (häufig weniger als 0,3%) reduziert, das Training beschleunigt und die Verwendung von GPU-Speicher minimiert.

Is ReFT All We Needed?

Umkämpftes Tuning: Diese Methode verwendet "Soft-Eingabeaufforderungen"-larnierbare aufgabenspezifische Einbettung-als Präfixe, wodurch eine effiziente Vorhersage der Multitasking-Vorhersage ermöglicht wird, ohne das Modell für jede Aufgabe zu duplizieren. .

Is ReFT All We Needed?

Präfix-Tuning (P-Tuning V2): Beschränkungen des schnellen Tunings im Maßstab addieren, und das Präfix-Tuning fügt zu verschiedenen Schichten zu trainierbaren Einbettungsdings hinzu und ermöglicht das aufgabenspezifische Lernen auf verschiedenen Ebenen.

.

Is ReFT All We Needed?

Die Robustheit und Effizienz von Lora machen es zur am häufigsten verwendeten PEFT -Methode für LLMs. Ein detaillierter empirischer Vergleich findet sich in in diesem Papier

.

verteilte Interchange -Intervention (dii)

dii basiert in der kausalen Abstraktion, einem Rahmen unter Verwendung der Intervention zwischen einem Modell auf hoher Ebene (Kausalmodell) und einem Modell mit niedrigem Level (neuronales Netzwerk) zur Bewertung der Ausrichtung. DII projiziert beide Modelle über orthogonale Projektionen in Teilräume und erstellt ein interveniertes Modell durch Rotationsoperationen. Ein detailliertes visuelles Beispiel ist hier

.

Der DII -Prozess kann mathematisch als:

dargestellt werden

Is ReFT All We Needed?

wobei R orthogonale Projektionen darstellt, und die verteilte Ausrichtungssuche (DAS) optimiert den Unterraum, um die Wahrscheinlichkeit der erwarteten kontrafaktischen Ausgänge nach der Intervention zu maximieren.

Reft - Repräsentation Fonetuning

reft stellt die verborgene Darstellung des Modells innerhalb eines niedrigeren Raums ein. Die folgende Abbildung zeigt die Intervention (PHI), die auf Schicht L und Position P:

angewendet wird

Is ReFT All We Needed?

lorft (Low-Rank Linear Subspace Reft) führt eine erlernte projizierte Quelle ein:

Is ReFT All We Needed?

wobei h die verborgene Darstellung ist und Rs pittet h im niedrigdimensionalen Raum, der von R überspannt ist. Die Lorft -Integration in eine neuronale Netzwerkschicht ist unten dargestellt:

Is ReFT All We Needed?

Während der Feinabstimmung der LLM bleiben die LLM-Parameter gefroren, und nur die Projektionsparameter (phi={R, W, b}).

experimentelle Ergebnisse

Das ursprüngliche Reft-Papier präsentiert vergleichende Experimente gegen vollständige Feinabstimmungen (FT), Lora und Präfix-Stimmen über verschiedene Benchmarks. Übertechniken übertrieben vorhandene Methoden konsequent übertrieben, wodurch die Parameter um mindestens 90% reduziert werden und gleichzeitig eine überlegene Leistung erzielt werden.

Is ReFT All We Needed?

Diskussion

Die Anziehungskraft von

Reft beruht auf seiner überlegenen Leistung mit Lama-Familie-Modellen für verschiedene Benchmarks und deren Grundlage in der kausalen Abstraktion, was die Modellinterpretierbarkeit unterstützt. REFT zeigt, dass ein linearer Unterraum, der über Neuronen verteilt ist, zahlreiche Aufgaben wirksam steuern kann und wertvolle Einblicke in LLMs bietet.

referenzen

Das obige ist der detaillierte Inhalt vonIst Reft alles, was wir brauchten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Vorheriger Artikel:Der GroßsprachmodellkursNächster Artikel:Der Großsprachmodellkurs