suchen
HeimTechnologie-PeripheriegeräteKIDas Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Überraschende Entdeckung: Das große Modell weist schwerwiegende Mängel bei der Wissensableitung auf.


Flexible Anwendung von Wissen ist der Schlüssel zur Weisheit. Das menschliche Gehirn kann Wissen schnell verarbeiten, beispielsweise schnell antworten: „Wie viele Wörter enthält „Stille-Nacht-Gedanken““? Können also ähnliche Operationen an großen Modellen durchgeführt werden? Es ist bekannt, dass große Modelle zunächst lautlos „Stille-Nacht-Gedanken“ über die Gedankenkette (CoT) schreiben und dann Fragen basierend auf dem geschriebenen Inhalt beantworten können, aber dadurch wird der generierte Text langwierig. Im Gegensatz dazu können Menschen einfache Wissensableitungen in ihrem Gehirn durchführen, ohne Zwischenschritte aufzuschreiben. Kann ein sehr großes Sprachmodell also direkt in seinem künstlichen Gehirn Antworten generieren, ohne die Wissenspunkte zuerst aufschreiben zu müssen?

Die Antwort ist nein! Abbildung 1/2/3 zeigt viele Gegenbeispiele zu GPT4. Selbst die grundlegendsten Klassifizierungen (z. B. die Bestimmung der Parität der Geburtstage von Prominenten) und Vergleiche (z. B. der Vergleich der Geburtstage zweier Präsidenten) müssen die Gedankenkette durchlaufen. Schlimmer noch: Große Modelle sind nahezu nicht in der Lage, rückwärts Wissen aus dem Trainingssatz zu extrahieren.

Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Der Inhalt, der neu geschrieben werden muss, ist: Abbildung 1: GPT4 weist Fehler bei der Wissensklassifizierung/-vergleich auf, aber die richtige Antwort kann über die Denkkette erhalten werden

Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Die Der Inhalt, der neu geschrieben werden muss, ist Ja: Abbildung 2: Beispiel für einen GPT4-Knowledge-Reverse-Search-Fehler

Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Abbildung 3: Obwohl GPT4 korrekt antworten kann: „Wann hat jemand Geburtstag“ und „Ist eine bestimmte Zahl gerade?“. Zahl", wenn man die beiden vergleicht. In Kombination mit den anderen beträgt die Genauigkeit nur 50 %, wenn die Gedankenkette (CoT) nicht verwendet wird. Beim Vergleich der Geburtstage von Prominenten aus den Jahren 1900–1910 kam die Leistung ebenfalls einer blinden Vermutung nahe.

Die neueste Forschung „Language Model Physics Part 3.2: Manipulation of Knowledge“ von Zhu Zeyuan (MetaAI) und Li Yuanzhi (MBZUAI) konzentriert sich auf die oben genannten Themen.
Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes ProblemBitte klicken Sie auf den folgenden Link, um das Papier anzuzeigen: https://arxiv.org/abs/2309.14402

Lassen Sie mich zuerst eine Frage stellen, wie z. B. Abbildung 1/2/3, die das Gedächtnis von Menschen in GPT4 betrifft Geburtstage sind nicht genau genug (das Komprimierungsverhältnis ist nicht ausreichend, der Trainingsverlust ist nicht niedrig genug) oder wurde das Verständnis der Parität nicht durch Feinabstimmung vertieft? Ist es möglich, GPT4 so zu optimieren, dass es vorhandenes Wissen innerhalb des Modells kombinieren kann, um neues Wissen wie „Geburtstagsparität“ zu generieren, um verwandte Fragen direkt zu beantworten, ohne auf CoT angewiesen zu sein? Da wir den Trainingsdatensatz von GPT4 nicht kennen, ist eine Feinabstimmung nicht möglich. Daher schlägt der Autor vor, kontrollierbare Trainingssätze zu verwenden, um die Fähigkeit von Sprachmodellen zur „Wissensableitung“ weiter zu untersuchen. T Abbildung 4: Pre-Training-Modelle wie GPT4, aufgrund der unkontrollierbaren Internetdaten ist es schwierig zu bestimmen, ob die Situation B/C/D auftritt „: Speicherung und Extraktion von Wissen“, der Autor hat einen Datensatz erstellt 100.000 Biografien. Jede Biografie enthält den Namen der Person sowie sechs Attribute: Geburtsdatum, Geburtsort, Hauptfach, Hochschulname, Beschäftigungsort und Arbeitsplatz. Zum Beispiel:

 

Anya Briar Forger
stammt aus Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes ProblemPrinceton, NJ. Sie widmete ihr Studium der
Kommunikation

. Sie entwickelte ihre Karriere bei Meta Platforms kam am Oktober 1996 auf die Welt. Sie absolvierte Kurse für Fortgeschrittene am

MIT.

Die Autorin stellte die Vielfalt der Biografieeinträge sicher, um dem Modell einen besseren Zugang zu Wissen zu ermöglichen. Nach dem Vortraining kann das Modell Fragen zur Wissensextraktion durch Feinabstimmung genau beantworten, z. B. „Wann hat Anya Geburtstag?“ (die Genauigkeitsrate liegt bei nahezu 100 %). Als nächstes führt der Autor die Feinabstimmung fort und versucht, dies zu erreichen Das Modell lernt Wissensdeduktionsfragen wie Klassifizierung/Vergleich/Addition und Subtraktion von Wissen. In dem Artikel wurde festgestellt, dass Modelle in natürlicher Sprache nur über sehr begrenzte Möglichkeiten zur Wissensableitung verfügen und es schwierig ist, durch Feinabstimmung neues Wissen zu generieren, selbst wenn es sich nur um einfache Transformationen/Kombinationen des vom Modell bereits beherrschten Wissens handelt.

Das Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Abbildung 5: Wenn CoT während der Feinabstimmung nicht verwendet wird, ist eine große Anzahl von Stichproben erforderlich, damit das Modell Wissen klassifizieren/vergleichen/subtrahieren kann, oder die Genauigkeitsrate ist extrem niedrig – es wurden 100 Hauptfächer verwendet Das Experiment

Zum Beispiel Abbildung 5. Der Autor stellte fest, dass das Modell zwar nach dem Vortraining genau auf den Geburtstag jedes Einzelnen antworten kann (die Genauigkeitsrate liegt bei nahezu 100 %), es jedoch für die Antwort „Ist der Geburtsmonat von xxx“ feinabgestimmt werden muss eine gerade Zahl?“ und erreicht eine Genauigkeit von 75 % – vergessen Sie nicht, dass blindes Raten eine Genauigkeitsrate von 50 % hat – und erfordert mindestens 10.000 Feinabstimmungsproben. Wenn das Modell im Vergleich dazu die Wissenskombination „Geburtstag“ und „Parität“ korrekt vervollständigen kann, muss das Modell nach der traditionellen Theorie des maschinellen Lernens nur lernen, 12 Monate zu klassifizieren, und normalerweise reichen etwa 100 Stichproben aus!

Auch nachdem das Modell vorab trainiert wurde, kann es jedes Hauptfach genau beantworten (insgesamt 100 verschiedene Hauptfächer), aber selbst unter Verwendung von 50.000 Feinabstimmungsproben kann das Modell vergleichen: „Welches ist besser, Anyas Hauptfach oder“ Sabrinas Hauptfach beträgt die Genauigkeitsrate nur 53,9 %, was fast einer Schätzung entspricht. Wenn wir jedoch das CoT-Feinabstimmungsmodell verwenden, um den Satz „Anyas Geburtsmonat ist Oktober, ist es eine gerade Zahl“ zu lernen, Das Modell bestimmt den Geburtsmonat im Testsatz. Die Genauigkeit der monatlichen Parität hat sich erheblich verbessert (siehe Spalte „CoT zum Testen“ in Abbildung 5).

Die Autoren haben auch versucht, CoT- und Nicht-CoT-Antworten bei der Feinabstimmung der Trainingsdaten zu mischen , und stellte fest, dass das Modell im Testsatz besser abschnitt, wenn CoT nicht verwendet wurde. Die Genauigkeitsrate ist immer noch sehr niedrig (siehe Spalte „Test ohne CoT“ in Abbildung 5). Dies zeigt, dass das Modell selbst dann nicht lernen kann, „im Kopf zu denken“ und die Antwort direkt zu melden, selbst wenn genügend CoT-Feinabstimmungsdaten hinzugefügt werden. Diese Ergebnisse zeigen, dass es für Sprachmodelle äußerst schwierig ist, einfaches Wissen zu implementieren Operationen! Das Modell muss zunächst die Wissenspunkte aufschreiben und dann Berechnungen durchführen. Es kann nicht direkt im Gehirn betrieben werden, selbst wenn es ausreichend fein abgestimmt ist.

Herausforderungen bei der umgekehrten Wissenssuche

Untersuchungen haben außerdem ergeben, dass Modelle in natürlicher Sprache erlerntes Wissen nicht durch die umgekehrte Suche anwenden können. Obwohl es alle Informationen über eine Person beantworten kann, kann es anhand dieser Informationen nicht den Namen der Person bestimmen

Die Autoren experimentierten mit GPT3.5/4 und stellten fest, dass sie bei der umgekehrten Wissensextraktion schlecht abschneiden (siehe Abbildung 6). Da wir jedoch den Trainingsdatensatz von GPT3.5/4 nicht bestimmen können, beweist dies nicht, dass alle Sprachmodelle dieses Problem haben

Abbildung 6: Vergleich der Vorwärts-/Rückwärts-Wissenssuche in GPT3.5/ 4 . Unsere zuvor berichtete „Reverse Curse“-Arbeit (arxiv 2309.12288) beobachtete dieses Phänomen auch bei vorhandenen großen ModellenDas Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Der Autor nutzte den oben genannten Biografiedatensatz, um eine eingehendere Untersuchung der kontrollierten Tests der Reverse-Wissenssuchfunktionen des Modells durchzuführen. Da die Namen aller Biografien am Anfang des Absatzes stehen, hat der Autor 10 Fragen zur umgekehrten Informationsextraktion entworfen, wie zum Beispiel: Kennen Sie den Namen der Person, die am 2. Oktober 1996 in Princeton, New Jersey, geboren wurde?

„Sagen Sie mir bitte den Namen einer Person, die am MIT Kommunikation studiert hat, am 2. Oktober 1996 in Princeton, New Jersey, geboren wurde und bei Meta Platforms in Menlo Park, Kalifornien, arbeitet?“

Müssen Fahren Sie fort Der umgeschriebene Inhalt lautet: Abbildung 7: Kontrolliertes Experiment mit dem Datensatz zur Promi-BiografieDas Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem

Der Autor hat bestätigt, dass das Modell zwar eine verlustfreie Wissenskomprimierung und eine ausreichende Wissenserweiterung erreicht und dieses Wissen fast zu 100 % korrekt extrahieren konnte, aber in Nachher gut Bei der Optimierung ist das Modell immer noch nicht in der Lage, eine umgekehrte Wissenssuche durchzuführen, und die Genauigkeit ist nahezu Null (siehe Abbildung 7). Sobald das umgekehrte Wissen jedoch direkt im Vortrainingssatz erscheint, steigt die Genauigkeit der umgekehrten Suche sofort an. Zusammenfassend lässt sich sagen, dass das Modell die umgekehrte Frage nur dann durch Feinabstimmung beantworten kann, wenn das inverse Wissen direkt in den Pretrain-Daten enthalten ist. Dies ist jedoch tatsächlich Betrug, denn wenn das Wissen umgekehrt wurde, wird dies nicht der Fall sein. Es ist „ „Umgekehrte Wissenssuche“ erneut. Wenn der vorab trainierte Satz nur Vorwärtswissen enthält, kann das Modell die Fähigkeit, Fragen durch Feinabstimmung in umgekehrter Reihenfolge zu beantworten, nicht beherrschen. Daher scheint die Verwendung von Sprachmodellen zur Wissensindizierung (Wissensdatenbank) derzeit unmöglich.

Darüber hinaus denken einige Leute möglicherweise, dass die obige „umgekehrte Wissenssuche“ fehlschlägt, weil autoregressive Sprachmodelle (wie GPT) einseitig sind. In der Realität schneiden bidirektionale Sprachmodelle (wie BERT) jedoch bei der Wissensextraktion schlechter ab und versagen sogar bei der Vorwärtsextraktion. Interessierte Leser können die detaillierten Informationen im Papier nachlesen

Das obige ist der detaillierte Inhalt vonDas Sprachmodell weist große Mängel auf und die Wissensableitung erweist sich als ein seit langem bestehendes Problem. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Dieser Artikel ist reproduziert unter:机器之心. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen
Gemma Scope: Das Mikroskop von Google, um in den Denkprozess von AI zu blickenGemma Scope: Das Mikroskop von Google, um in den Denkprozess von AI zu blickenApr 17, 2025 am 11:55 AM

Erforschen der inneren Funktionsweise von Sprachmodellen mit Gemma -Umfang Das Verständnis der Komplexität von KI -Sprachmodellen ist eine bedeutende Herausforderung. Die Veröffentlichung von Gemma Scope durch Google, ein umfassendes Toolkit, bietet Forschern eine leistungsstarke Möglichkeit, sich einzuschütteln

Wer ist ein Business Intelligence Analyst und wie kann man einer werden?Wer ist ein Business Intelligence Analyst und wie kann man einer werden?Apr 17, 2025 am 11:44 AM

Erschließung des Geschäftserfolgs: Ein Leitfaden zum Analyst für Business Intelligence -Analyst Stellen Sie sich vor, Rohdaten verwandeln in umsetzbare Erkenntnisse, die das organisatorische Wachstum vorantreiben. Dies ist die Macht eines Business Intelligence -Analysts (BI) - eine entscheidende Rolle in Gu

Wie füge ich eine Spalte in SQL hinzu? - Analytics VidhyaWie füge ich eine Spalte in SQL hinzu? - Analytics VidhyaApr 17, 2025 am 11:43 AM

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Business Analyst vs. Data AnalystBusiness Analyst vs. Data AnalystApr 17, 2025 am 11:38 AM

Einführung Stellen Sie sich ein lebhaftes Büro vor, in dem zwei Fachleute an einem kritischen Projekt zusammenarbeiten. Der Business Analyst konzentriert sich auf die Ziele des Unternehmens, die Ermittlung von Verbesserungsbereichen und die strategische Übereinstimmung mit Markttrends. Simu

Was sind Count und Counta in Excel? - Analytics VidhyaWas sind Count und Counta in Excel? - Analytics VidhyaApr 17, 2025 am 11:34 AM

Excel -Datenzählung und -analyse: Detaillierte Erläuterung von Count- und Counta -Funktionen Eine genaue Datenzählung und -analyse sind in Excel kritisch, insbesondere bei der Arbeit mit großen Datensätzen. Excel bietet eine Vielzahl von Funktionen, um dies zu erreichen. Die Funktionen von Count- und Counta sind wichtige Instrumente zum Zählen der Anzahl der Zellen unter verschiedenen Bedingungen. Obwohl beide Funktionen zum Zählen von Zellen verwendet werden, sind ihre Designziele auf verschiedene Datentypen ausgerichtet. Lassen Sie uns mit den spezifischen Details der Count- und Counta -Funktionen ausgrenzen, ihre einzigartigen Merkmale und Unterschiede hervorheben und lernen, wie Sie sie in der Datenanalyse anwenden. Überblick über die wichtigsten Punkte Graf und Cou verstehen

Chrome ist hier mit KI: Tag zu erleben, täglich etwas Neues !!Chrome ist hier mit KI: Tag zu erleben, täglich etwas Neues !!Apr 17, 2025 am 11:29 AM

Die KI -Revolution von Google Chrome: Eine personalisierte und effiziente Browsing -Erfahrung Künstliche Intelligenz (KI) verändert schnell unser tägliches Leben, und Google Chrome leitet die Anklage in der Web -Browsing -Arena. Dieser Artikel untersucht die Exciti

Die menschliche Seite von Ai: Wohlbefinden und VierfacheDie menschliche Seite von Ai: Wohlbefinden und VierfacheApr 17, 2025 am 11:28 AM

Impacting Impact: Das vierfache Endergebnis Zu lange wurde das Gespräch von einer engen Sicht auf die Auswirkungen der KI dominiert, die sich hauptsächlich auf das Gewinn des Gewinns konzentrierte. Ein ganzheitlicherer Ansatz erkennt jedoch die Vernetzung von BU an

5 verwendende Anwendungsfälle für Quantum Computing, über die Sie wissen sollten5 verwendende Anwendungsfälle für Quantum Computing, über die Sie wissen solltenApr 17, 2025 am 11:24 AM

Die Dinge bewegen sich stetig zu diesem Punkt. Die Investition, die in Quantendienstleister und Startups einfließt, zeigt, dass die Industrie ihre Bedeutung versteht. Und eine wachsende Anzahl realer Anwendungsfälle entsteht, um seinen Wert zu demonstrieren

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Chat -Befehle und wie man sie benutzt
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

MinGW – Minimalistisches GNU für Windows

MinGW – Minimalistisches GNU für Windows

Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

EditPlus chinesische Crack-Version

EditPlus chinesische Crack-Version

Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

SublimeText3 Linux neue Version

SublimeText3 Linux neue Version

SublimeText3 Linux neueste Version

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung