Heim >Technologie-Peripheriegeräte >KI >Aufforderung zur Kette der Gedanken: Schritt-für-Schritt-Argumentation mit LLMs
Großsprachenmodelle (LLMs) erzeugen Text unter Verwendung einer Technik, die als Autoregression bezeichnet wird und das das wahrscheinlichste nächste Wort in einer Sequenz basierend auf den vorherigen Wörtern vorhergesagt. LLM-betriebene Agenten wie ChatGPT sind ebenfalls fein abgestimmt, um der Benutzerabsicht zu folgen. Daher vervollständigen sie nicht nur die Eingabesequenz, sondern erfassen die Absicht des Benutzers für die Eingabe und generieren eine Antwort entsprechend.
Wenn Sie ChatGPT schon eine Weile ausprobiert haben, haben Sie sicher erkannt Das Geheimnis, um zurückzubekommen. Die für die Benutzereingabe angewendeten Techniken, um das vollständige Potenzial des Modells auszunutzen, wird als prompt Engineering bezeichnet. In diesem Artikel werden wir eine der leistungsstärksten schnellen technischen Techniken untersuchen: Aufforderung zur Kette der Gedanken (COT). Diese Technik beinhaltet die Strukturierung der Eingabeaufforderung auf eine Weise, die es dem Modell erleichtert, komplexe Aufgaben zu erledigen, die Argumentation oder Problemlösung erfordern. Es wurde gezeigt, dass das gleiche Modell ohne COT nicht die richtige Antwort liefert.
Modell StandardfunktionenObwohl LLMs für ihre Verallgemeinerungsfähigkeit bekannt sind, hängen Modellfunktionen von der Aufgabe
ab. Bei der Verwendung von LLMs ist es wichtig zu berücksichtigen, dass jedes Modell in einer riesigen, aber begrenzten Datenbank geschult wurde und für bestimmte Aufgaben optimiert wurde. Daher kann das Modell in bestimmten Domänen sehr leistungsfähig sein, aber es kann in anderen fehlschlagen.Modellfunktionen hängen auch vom Zeitpunkt ab. Wenn Sie mir wie beim Menschen eine Summe von 5 Ziffern geben, brauchen Sie einige Zeit, um mit der richtigen Antwort nachzudenken und zu antworten. Wenn Sie es in Eile tun, können Sie Ihre Antwort leicht falsch berücksichtigen und scheitern.
, ähnlich wie Menschen, das bedeutet nicht unbedingt, dass das Modell über die Aufgabe nicht in der Lage ist. Mit einiger Zeit oder Anleitung kann das Modell möglicherweise immer noch zuverlässig beantworten.
Die Antwort des Modells und die erforderliche Zeit, um zu generieren, kann auch durch verschiedene Faktoren beeinflusst werden, wie z. B. den spezifischen Wortlaut der Frage:
Kette der Gedanken, die Leitfaden für LLMs zum Lösen von komplexen Aufgaben ermöglichen, sowohl durch die Auswahl der Art und Weise, wie die Eingabeaufforderung formuliert wird als auch die erforderliche Zeit oder Schritte zur Erzeugung der richtigen Antwort.
-Kette des Gedankens ist eine Technik, die die Leistung von Sprachmodellen verbessert, indem das Modell explizit dazu veranlasst wird, eine Schritt-für-Schritt-Erklärung oder einen Argumentationsprozess zu generieren, bevor Sie zu einer endgültigen Antwort kommen. Diese Methode hilft dem Modell, das Problem aufzubrechen und keine Zwischenaufgaben zu überspringen, um Argumentationsfehler zu vermeiden.
cot ist effektiv, da es hilft, den Aufmerksamkeitsmechanismus des LLM zu fokussieren. Durch die Zersetzung des Argumentationsprozesses lenkt das Modell die Aufmerksamkeit auf einen Teil des Problems gleichzeitig und minimiert das Risiko von Fehlern, die sich aus der gleichzeitigen Handhabung von zu vielen Informationen ergeben könnten.
Forscher von Google führten in einem Artikel mit dem Titel „Kette der Gedankenanforderungen ein, die in großer Sprachmodellen in großer Sprachmodelle zu archivieren. Diese Untersuchung führte hervor, wie das Leiten eines Modells durch eine Reihe von Intermediate-Argumentationschritten seine Leistung bei Aufgaben bei Aufgaben der Aufgaben wie mathematischer Problemen, logische Argumentation, logische Argumentation und Multi-Hope-Fragen, die Responsen zum Thema mathematische Problems, erheblich verbesserte.
Sehen wir uns eines der vorgeschlagenen Beispiele an:
Vergleich zwischen Standardaufforderung und COT -Aufforderung. Links wird das Modell angewiesen, die endgültige Antwort direkt zu geben (Standardaufforderung). Auf der rechten Seite wird das Modell angewiesen, den Argumentationsprozess zu zeigen, um die endgültige Antwort zu erreichen (COT -Aufforderung).
Wie wir beobachten können, hilft das Erzeugen einer Denkkette - eine Reihe von Intermediate -Argumentationsschritten - dem Modell, die richtige Antwort zu geben.Die ursprünglichen Autoren beziehen sich auf die Denkkette als die Reihe von Intermediate Natural Language-Argumentationsschritten, die zur endgültigen Ausgabe führen, und bezieht sich auf diesen Ansatz als Kette der Gedanken.
Wie funktioniert die Kette des Gedankens?
Explizite Anweisungen geben bedeutet, das Problem in der Benutzeraufforderung selbst zu zerlegen. Zum Beispiel müssen Sätze wie „Zuerst wir uns berücksichtigen…“, um das Modell zu fordern, um seinen Denkprozess zu detaillieren.
Lassen Sie es uns in Aktion sehen!
Stellen Sie sich vor, meine spanische Mutter hat mir das Familienrezept für die Vorbereitung kaltes Gebräu geschickt:
input_text = """ ¡Preparar café Cold Brew es un proceso sencillo y refrescante! Todo lo que necesitas son granos de café molido grueso y agua fría. Comienza añadiendo el café molido a un recipiente o jarra grande. Luego, vierte agua fría, asegurándote de que todos los granos de café estén completamente sumergidos. Remueve la mezcla suavemente para garantizar una saturación uniforme. Cubre el recipiente y déjalo en remojo en el refrigerador durante al menos 12 a 24 horas, dependiendo de la fuerza deseada. """
Nehmen wir an, wir sind daran interessiert, alle Kaffee-Wörter in Englisch zu übersetzen, und wir möchten Chatgpt für die Aufgabe verwenden:
prompt = f""" Give me a numbered list of all coffee-related words in English from the text below: Text: <{input_text}> """ response = chatgpt_call(prompt) print(response)
Hier ist die Antwort auf diese Eingabeaufforderung:
Wenn wir das Modell auffordern, diese Aufgabe sofort zu erledigen, können wir sehen, dass es die Aufgabe falsch ausführt. Es gibt nicht nur nicht verwandte Kaffeewörter aus, sondern auch auf Spanisch, nicht auf Englisch.
wir könnten bedenken, dass diese Aufgabe komplex ist, da sie zwei Schritte erfordert:
Stattdessen springt das Modell direkt zur endgültigen Aufgabe, die Kaffee-Wörter zu identifizieren und fehlt den Übersetzungsschritt. Indem wir die Übersetzung als Zwischenaufgabe angeben oder die Aufgabe in den beiden Hauptschritten zerlegen, können wir das Modell zur richtigen Ausgabe führen:
prompt = f""" Give me a numbered list of all coffee-related words in English from the text below: The task requires the following actions: 1 - Translate the given text into English. 2 - List each coffee-related word from the English text. Text: <{input_text}> """ response = chatgpt_call(prompt) print(response)
Einschließlich der oben nachgedachten Kette führt zu der richtigen Antwort:
Wenn Sie daran interessiert sind, diese Technik mit anderen LLMs anstelle von Chatgpt oder der OpenAI -API auszuprobieren, ist der Kurs „Entwicklung großer Sprachmodelle“ genau das Richtige für Sie!
Manchmal muss das Problem nicht in der Eingabeaufforderung zerlegt werden. Die University of Tokyo schlug zusammen mit Google Research eine nette Methode vor, um die LLM -Antworten zu verbessern, die am Ende der ursprünglichen Eingabeaufforderung einfach "Schritt für Schritt Schritt für Schritt denken" bestand.
Dieser einfache Satz fordert das Modell auf, laut zu argumentieren und alle erforderlichen Schritte für die Ausführung der Aufgabe durchzuführen.
Analysieren wir eines der Beispiele, die die im Originalpapier vorgeschlagenen Autoren „Großsprachmodelle sind Null-Shot-Gründe“:
Vergleich zwischen der Standardaufforderung und der Verwendung impliziter COT -Anweisungen. Links liefert das Modell die endgültige Antwort sofort auf das Problem (Null-Shot-Aufforderung) und scheitert. Auf der rechten Seite wird das Modell mit einem impliziten COT -Anweisungen (COT -Aufforderung) angewiesen, um die richtige Antwort zu erhalten.
[a] Im ersten Beispiel fordern die Autoren das Modell auf, ein arithmetisches Problem zu lösen, aber es fällt in dieser Aufgabe fehl.
[b] Anhand von "Überlegen wir uns Schritt für Schritt" an die ursprüngliche Frage, begründet das Modell die Antwort laut und erfolgreich.
Anwenden Sie diesen einfachen Trick auf den Multiarith -Mathematikdatensatz an, stellten die Autoren fest, dass dieser implizite Anweisungen die Genauigkeit von 18% auf 79%!
Wenn Sie interessiert sind, können Sie mehr über diese Technik lesen, um diese kurze Eingabeaufforderung zu verwenden, um das Ergebnis von Chatgpt zu steigern. "#3. Demonstrative Beispiele
Null-Shot bezieht sich auf die Fähigkeit eines Modells, eine Aufgabe auszuführen, ohne explizit an Beispielen dieser spezifischen Aufgabe geschult zu werden.
Es stützt sich auf die Fähigkeit des Modells, geeignete Antworten auf neue und zuvor unsichtbare Aufgaben zu verallgemeinern und zu generieren. Das heißt, wenn wir die Benutzeroberfläche von Chatgpt öffnen und sofort eine Frage stellen, machen wir null Schussaufforderung.Dennoch gibt es Möglichkeiten, das Modell mehrere Beispiele für ähnliche Aufgaben zu zeigen, die wir lösen möchten.
Die Bereitstellung einer Reihe von Demonstrativbeispielen wird je nach Anzahl der angegebenen Beispiele als One-Shot- und wenige Shot-Aufforderung bezeichnet.
One-Shot-Aufforderung, das das Modell eines Beispiels zeigt, das der Zielaufgabe für die Anleitung ähnelt.
Wenn wir beispielsweise auf die erste Abbildung des Artikels zurückkehren, können wir feststellen, dass das Modell dank des in der Eingabeaufforderung angegebenen Demonstrativbeispiels die Kette des Nachdenkens generiert.Wenig-Shot-Aufforderung
Die Anzahl der angegebenen Beispiele ist höher , typischerweise etwa hundert. Die Leistung des Modells nimmt mit der Anzahl der Beispiele linear zu.
wenige Schussaufforderung wurde von Jason Wei und Denny Zhou et al. von Google. Dieser Ansatz ist besonders nützlich für Aufgaben, die spezialisierteres oder domänenspezifischeres Wissen erfordern, wobei das Modell möglicherweise nicht über ausreichendes Hintergrundwissen verfügt, um die Aufgabe unter Verwendung von Null-Shot- oder One-Shot-Aufforderung auszuführen.wenige Schussaufforderung wird manchmal als kleine Feinabstimmung des Modells auf einer Sammlung neuer oder spezieller Daten angesehen.
Weitere Beispiele für One-Shot- und wenige Schüsse finden Sie in „Chatgpt Performance mit promptem Engineering“.
One-Shot und wenige Aufforderung sind kein COT. Forscher haben jedoch untersucht, wie wenig Schuss Lernen mit COT-Aufforderung kombiniert werden kann, bekannt als „wenige Schuss-Cot-Aufforderung“. In ein paar Schuss-COTs wird das Modell einige Beispiele für Probleme sowie ihre Schritt-für-Schritt-Lösungen zur Verfügung gestellt, um seinen Argumentationsprozess zu leiten .
kombiniert nur wenige Schuss-COT-Anforderungen mit anderen Techniken, wie z. B. die Generierung von Abrufen oder interaktive Abfragen, kann die Leistung und Zuverlässigkeit des Modells weiter verbessern. Durch die Integration externer Wissensbasis, Datenbanken oder Informationsabrufsysteme kann das Modell seine Argumentation mit sachlichen und aktuellen Informationen verbessern.
Labyrinth mathematischer Probleme, um zu veranschaulichen, wie Cot Cot die Modelle durch den Wissensraum navigieren und komplexe Aufgaben lösen können. Selbst erzeugtes Bild mit Chatgpt 4o Bildgenerierung mit der folgenden Eingabeaufforderung „Stellen Sie sich einen Sprachmodellagent durch ein Labyrinth mathematischer Probleme vor“.
Es gibt mehrere Möglichkeiten, COT in unsere Eingabeaufforderungen einzubeziehen:
Mehrere Frameworks können Ihnen dabei helfen, COT und andere schnelle technische Techniken zu implementieren, aber Langchain ist mein Favorit. Wenn Sie Langchain als Teil Ihrer LLM-Anbieter-Projekte verwenden möchten, ist der Kurs „Entwickeln von LLM-Anwendungen mit Langchain“ ein idealer Ausgangspunkt.
-Kette des Gedankens bietet mehrere Vorteile, insbesondere bei der Verbesserung der Leistung und Zuverlässigkeit von Sprachmodellen in komplexen Aufgaben.
Wenn das Modell ein Problem in kleinere, überschaubare Schritte unterteilt, kann das Modell komplexe Aufgaben genauer erledigen. Zwischenschritte liefern Kontrollpunkte, an denen potenzielle Fehler erfasst und korrigiert werden können, was zu genaueren endgültigen Antworten führt.
Der Grund, warum Aufgaben wie mathematische Probleme, logische Rätsel oder Multi-Hop-Fragen zur Beantwortung dieses Ansatzes davon profitieren, liegt darin, dass bereits mehrere Argumentationsschritte erfordern
.Der Schritt-für-Schritt-Argumentationsprozess ist transparent, sodass Benutzer verstehen, wie das Modell zu seiner Schlussfolgerung gekommen ist. Diese Transparenz baut Vertrauen in die Ausgaben des Modells auf.
Es kann auch beim Debuggen helfen, da Benutzer leichter erkennen können, wo das Modell in seiner Argumentation möglicherweise schief gelaufen ist.
Einschränkungen und ÜberlegungenModell-Abhängigkeit
ist. Daher hängt die Wirksamkeit von COT, die dazu führt, weitgehend von den Fähigkeiten des zugrunde liegenden Sprachmodells ab. Eingabeaufforderungserzeugung
für verschiedene Arten von Aufgaben und Domänen können zeitaufwändig sein und erfordern möglicherweise eine konstante Verfeinerung. Leistung
Kompromisse
Während COT-Aufforderung die Interpretierbarkeit durch schrittweise Erklärungen erhöht, kann dies auch zu längeren und ausführlicheren AusgängenSchlussfolgerung In diesem Artikel haben wir gesehen, wie die Aufforderung der Kette der Gedanken zu einem erheblichen Fortschritt bei der Verbesserung der Argumentationsfunktionen großer Sprachmodelle sowie einige praktische Beispiele für die Implementierung ist.
Zusätzlich haben wir leistungsstarke Techniken wie One-Shot und wenige Schüsse untersucht, die die Leistung des Modells weiter verbessern und mit COT zusammen mit den Vorteilen und einigen Einschränkungen kombiniert werden können, die wir nicht übersehen können.
Betrachten Sie die in diesem Artikel besprochenen Techniken, um zuverlässigere, leistungsstärkere Eingabeaufforderungen zu erstellen, und denken Sie daran:
Einheitliche Engineering kann einen großen Einfluss auf Ihre Ausgaben haben!
Sie können über die Kurse von DataCamp mehr über das schnelle Engineering erfahren, um sofortige Engineering und Chatgpt -Engineering für Entwickler zu verstehen. Sie können auch einen separaten Leitfaden zur sofortigen technischen Zertifizierung ansehen und herausfinden, was die besten Lernpfade für Sie sind. Kette des Gedankens faqs
Kann für alle Arten von Fragen die Aufforderung zur Kette des Kindes verwendet werden? Es ist am vorteilhaftesten für Probleme, bei denen ein detaillierter Schritt für Schritt auch die richtige Antwort erreichen muss. wie die aktuelle Position zu identifizieren, mögliche Pfade zu bewerten und den Pfad mit den geringsten Hindernissen auszuwählen. Dies ist besonders wertvoll in Feldern wie Gesundheitswesen und Finanzen, wo das Verständnis der Begründung hinter AI-Entscheidungen von entscheidender Bedeutung ist. ein Problem. Im Gegensatz dazu beinhaltet die Aufforderung mit mehreren Schritten die Bereitstellung von nacheinander zusätzlichen Eingabeaufforderungen oder Hinweisen in jeder Stufe des Problems, wodurch das Modell zunehmend in Richtung der Lösung führt. Mehrere Ketten für die gleiche Frage stellt jede Kette einen anderen Argumentationsweg dar. Die endgültige Antwort wird auf der Grundlage des am häufigsten vorkommenden Ergebniss dieser verschiedenen Argumentationspfade bestimmt. Dies hilft bei der Minderung von Fehlern, die in einer einzigen Argumentationskette auftreten können.
Das obige ist der detaillierte Inhalt vonAufforderung zur Kette der Gedanken: Schritt-für-Schritt-Argumentation mit LLMs. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!