Heim >Technologie-Peripheriegeräte >KI >GPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung
Microsofts TNT-LlM: Revolutionierung der Taxonomiegenerierung und Textklassifizierung
Microsoft hat TNT-LLM vorgestellt, ein bahnbrechendes System, das die Erstellung von Taxonomie und die Textklassifizierung automatisiert und herkömmliche Methoden sowohl in Geschwindigkeit als auch in Genauigkeit übertrifft. Dieser innovative Ansatz nutzt die Kraft von Großsprachenmodellen (LLMs), um die Erzeugung von Taxonomien und Klassifikatoren zu optimieren und zu skalieren, wodurch manuelle Eingriffe minimieren. Dies ist besonders vorteilhaft für Anwendungen wie Bing Copilot, bei denen die Verwaltung dynamischer und vielfältiger Textdaten von größter Bedeutung ist.
Dieser Artikel zeigt die Implementierung von TNT-LLM mit GPT-4O und Langgraph für effizientes Nachrichtenartikel-Clustering. Weitere Informationen zu GPT-4O und Langgraph finden Sie unter folgende Ressourcen:
Das ursprüngliche TNT-LlM-Forschungsarbeit, "TNT-LlM: Textmining in Skala mit großen Sprachmodellen", enthält umfassende Details zum System.
TNT-llm
verstehenTNT-LlM (Taxonomie und Textklassifizierung mit großer Sprachmodellen) ist ein zweistufiges Framework, das zum Generieren und Klassifizieren von Taxonomien aus Textdaten entwickelt wurde.
Phase 1: Taxonomieerzeugung
Diese Anfangsphase verwendet eine Stichprobe von Textdokumenten und eine bestimmte Anweisung (z. B. "generieren Sie eine Taxonomie zu Cluster -Nachrichtenartikeln"). Ein LLM fasst jedes Dokument zusammen und extrahiert wichtige Informationen. Durch die iterative Verfeinerung erstellt, modifiziert und verfeinert das LLM die Taxonomie, was zu einer strukturierten Hierarchie von Labels und Beschreibungen für die Kategorisierung eines effektiven Nachrichtenartikels führt.
Quelle: Menging Wan et al.
Phase 2: Textklassifizierung
Die zweite Phase verwendet die generierte Taxonomie, um einen größeren Datensatz zu kennzeichnen. Das LLM wendet diese Etiketten an und erstellt Trainingsdaten für einen leichten Klassifikator (wie logistische Regression). Dieser geschulte Klassifikator bezeichnet effizient den gesamten Datensatz oder führt eine Echtzeitklassifizierung durch.
Quelle: Menging Wan et al.
Die anpassungsfähige Natur vonTNT-LLM ist für verschiedene Textklassifizierungsaufgaben geeignet, einschließlich Absichtserkennung und Themenkategorisierung.
Vorteile von TNT-Llm
tnt-llm bietet erhebliche Vorteile für das groß angelegte Textabbau und die Klassifizierung:
Implementieren von TNT-Llm
Ein Schritt-für-Schritt-Implementierungshandbuch folgt:
Installation:
Installieren Sie die erforderlichen Pakete:
pip install langgraph langchain langchain_openai
Umgebungsvariablen für API -Schlüssel und Modellnamen festlegen:
export AZURE_OPENAI_API_KEY='your_api_key_here' export AZURE_OPENAI_MODEL='your_deployment_name_here' export AZURE_OPENAI_ENDPOINT='deployment_endpoint'
Kernkonzepte:
Doc
Rohtextdaten (Artikel, Chat -Protokolle) mithilfe der TaxonomyGenerationState
Cluster kategorisierter Absichten oder Themen, verwaltet von der Erstellen einer einfachen TNT-Llm-Anwendung:
In den folgenden Abschnitten werden die Implementierungsschritte beschrieben, wobei Code -Snippets verwendet werden, um Schlüsselprozesse zu veranschaulichen. Aufgrund der Länge des ursprünglichen Codes ist hier eine vollständige Reproduktion unpraktisch. Das Folgende bietet jedoch einen strukturierten Überblick über den Prozess:
Schritt 0: Definieren Sie die Grafikzustandsklasse, laden Sie Datensätze und initialisieren Sie GPT-4O:
Dies umfasst das Definieren der Datenstrukturen und das Laden des Datensatzes für Nachrichtenartikel. Ein GPT-4O-Modell wird für die Verwendung in der gesamten Pipeline initialisiert.Schritt 1: Fassen Sie Dokumente zusammen:
Jedes Dokument wird mit einer LLM -Eingabeaufforderung zusammengefasst.Schritt 2: Erstellen Sie Minibatches:
zusammengefasste Dokumente werden zur parallele Verarbeitung in Minibatches unterteilt.Schritt 3: Erstellen Sie die erste Taxonomie:
Eine erste Taxonomie wird aus dem ersten Minibatch erstellt.Schritt 4: Taxonomie aktualisieren:
Die Taxonomie wird iterativ aktualisiert, wenn die nachfolgenden Minibatches verarbeitet werden.Schritt 5: Taxonomie überprüfen:
Die endgültige Taxonomie wird auf Genauigkeit und Relevanz überprüft.Schritt 6: orchestrieren die TNT-Llm-Pipeline mit Staategraphen: Ein Staategraph orchestriert die Ausführung der verschiedenen Schritte.
Schritt 7: Clustering und Anzeige von TNT-Llms News-Artikel Taxonomie: Die endgültige Taxonomie wird angezeigt, wobei die Cluster von Nachrichtenartikeln angezeigt werden.
Schlussfolgerung
TNT-LlM bietet eine leistungsstarke und effiziente Lösung für einen großflächigen Textmining und -klassifizierung. Die Automatisierungsfunktionen verkürzt die Zeit und die Ressourcen, die für die Analyse unstrukturierter Textdaten erforderlich sind, erheblich, wodurch datengesteuerte Entscheidungen in verschiedenen Domänen ermöglicht werden. Das Potenzial für weitere Entwicklung und Anwendung in der gesamten Branche ist erheblich. Für diejenigen, die an einer weiteren LLM -Anwendungsentwicklung interessiert sind, wird ein Kurs über "Entwicklung von LLM -Anwendungen mit Langchain" empfohlen.
Das obige ist der detaillierte Inhalt vonGPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!