Heim >Technologie-Peripheriegeräte >KI >GPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung

GPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung

Jennifer Aniston
Jennifer AnistonOriginal
2025-03-05 10:56:12179Durchsuche

Microsofts TNT-LlM: Revolutionierung der Taxonomiegenerierung und Textklassifizierung

Microsoft hat TNT-LLM vorgestellt, ein bahnbrechendes System, das die Erstellung von Taxonomie und die Textklassifizierung automatisiert und herkömmliche Methoden sowohl in Geschwindigkeit als auch in Genauigkeit übertrifft. Dieser innovative Ansatz nutzt die Kraft von Großsprachenmodellen (LLMs), um die Erzeugung von Taxonomien und Klassifikatoren zu optimieren und zu skalieren, wodurch manuelle Eingriffe minimieren. Dies ist besonders vorteilhaft für Anwendungen wie Bing Copilot, bei denen die Verwaltung dynamischer und vielfältiger Textdaten von größter Bedeutung ist.

Dieser Artikel zeigt die Implementierung von TNT-LLM mit GPT-4O und Langgraph für effizientes Nachrichtenartikel-Clustering. Weitere Informationen zu GPT-4O und Langgraph finden Sie unter folgende Ressourcen:

  • Was ist OpenAs GPT-4O?
  • GPT-4O-API-Tutorial: Erste Schritte mit Openais API
  • Langgraph Tutorial: Was ist Langgraph und wie kann man es verwenden?

Das ursprüngliche TNT-LlM-Forschungsarbeit, "TNT-LlM: Textmining in Skala mit großen Sprachmodellen", enthält umfassende Details zum System.

TNT-llm

verstehen

TNT-LlM (Taxonomie und Textklassifizierung mit großer Sprachmodellen) ist ein zweistufiges Framework, das zum Generieren und Klassifizieren von Taxonomien aus Textdaten entwickelt wurde.

Phase 1: Taxonomieerzeugung

Diese Anfangsphase verwendet eine Stichprobe von Textdokumenten und eine bestimmte Anweisung (z. B. "generieren Sie eine Taxonomie zu Cluster -Nachrichtenartikeln"). Ein LLM fasst jedes Dokument zusammen und extrahiert wichtige Informationen. Durch die iterative Verfeinerung erstellt, modifiziert und verfeinert das LLM die Taxonomie, was zu einer strukturierten Hierarchie von Labels und Beschreibungen für die Kategorisierung eines effektiven Nachrichtenartikels führt.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Quelle: Menging Wan et al.

Phase 2: Textklassifizierung

Die zweite Phase verwendet die generierte Taxonomie, um einen größeren Datensatz zu kennzeichnen. Das LLM wendet diese Etiketten an und erstellt Trainingsdaten für einen leichten Klassifikator (wie logistische Regression). Dieser geschulte Klassifikator bezeichnet effizient den gesamten Datensatz oder führt eine Echtzeitklassifizierung durch.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Quelle: Menging Wan et al.

Die anpassungsfähige Natur von

TNT-LLM ist für verschiedene Textklassifizierungsaufgaben geeignet, einschließlich Absichtserkennung und Themenkategorisierung.

Vorteile von TNT-Llm

tnt-llm bietet erhebliche Vorteile für das groß angelegte Textabbau und die Klassifizierung:

  • Automatisierte Taxonomiegenerierung: automatisiert die Erstellung detaillierter und interpretierbarer Taxonomien aus dem Rohtext, wodurch die Notwendigkeit einer umfangreichen manuellen Anstrengung und Domain -Expertise beseitigt wird.
  • Skalierbare Klassifizierung: Ermöglicht die skalierbare Textklassifizierung mit Leichtgewichtsmodellen, die große Datensätze und Echtzeit-Klassifizierung effizient verarbeiten.
  • Kosteneffizienz: optimiert die Ressourcenverbrauch durch abgestufte LLM-Nutzung (z. B. GPT-4 für die Taxonomiegenerierung, GPT-3,5-Turbo für die Zusammenfassung und logistische Regression für die endgültige Klassifizierung).
  • .
  • . Hochwertige Ausgaben:
  • iterative Taxonomiegenerierung sorgt für hochwertige, relevante und genaue Kategorisierungen.
  • Minimale menschliche Intervention:
  • reduziert den manuellen Eingang und minimiert mögliche Verzerrungen und Inkonsistenzen.
  • Flexibilität:
  • passt sich an verschiedene Textklassifizierungsaufgaben und -Domänen an und unterstützt die Integration mit verschiedenen LLMs, Einbettungsmethoden und Klassifikatoren.

Implementieren von TNT-Llm

Ein Schritt-für-Schritt-Implementierungshandbuch folgt:

Installation:

Installieren Sie die erforderlichen Pakete:
pip install langgraph langchain langchain_openai

Umgebungsvariablen für API -Schlüssel und Modellnamen festlegen:
export AZURE_OPENAI_API_KEY='your_api_key_here'
export AZURE_OPENAI_MODEL='your_deployment_name_here'
export AZURE_OPENAI_ENDPOINT='deployment_endpoint'

Kernkonzepte:

  • Dokumente: Doc Rohtextdaten (Artikel, Chat -Protokolle) mithilfe der
  • -Kläufe strukturiert.
  • Taxonomien: TaxonomyGenerationState Cluster kategorisierter Absichten oder Themen, verwaltet von der
  • -Klassel.

Erstellen einer einfachen TNT-Llm-Anwendung:

In den folgenden Abschnitten werden die Implementierungsschritte beschrieben, wobei Code -Snippets verwendet werden, um Schlüsselprozesse zu veranschaulichen. Aufgrund der Länge des ursprünglichen Codes ist hier eine vollständige Reproduktion unpraktisch. Das Folgende bietet jedoch einen strukturierten Überblick über den Prozess:
  • Schritt 0: Definieren Sie die Grafikzustandsklasse, laden Sie Datensätze und initialisieren Sie GPT-4O:

    Dies umfasst das Definieren der Datenstrukturen und das Laden des Datensatzes für Nachrichtenartikel. Ein GPT-4O-Modell wird für die Verwendung in der gesamten Pipeline initialisiert.
  • Schritt 1: Fassen Sie Dokumente zusammen:

    Jedes Dokument wird mit einer LLM -Eingabeaufforderung zusammengefasst.
  • Schritt 2: Erstellen Sie Minibatches:

    zusammengefasste Dokumente werden zur parallele Verarbeitung in Minibatches unterteilt.
  • Schritt 3: Erstellen Sie die erste Taxonomie:

    Eine erste Taxonomie wird aus dem ersten Minibatch erstellt.
  • Schritt 4: Taxonomie aktualisieren:

    Die Taxonomie wird iterativ aktualisiert, wenn die nachfolgenden Minibatches verarbeitet werden.
  • Schritt 5: Taxonomie überprüfen:

    Die endgültige Taxonomie wird auf Genauigkeit und Relevanz überprüft.
  • Schritt 6: orchestrieren die TNT-Llm-Pipeline mit Staategraphen: Ein Staategraph orchestriert die Ausführung der verschiedenen Schritte.

  • Schritt 7: Clustering und Anzeige von TNT-Llms News-Artikel Taxonomie: Die endgültige Taxonomie wird angezeigt, wobei die Cluster von Nachrichtenartikeln angezeigt werden.

Schlussfolgerung

TNT-LlM bietet eine leistungsstarke und effiziente Lösung für einen großflächigen Textmining und -klassifizierung. Die Automatisierungsfunktionen verkürzt die Zeit und die Ressourcen, die für die Analyse unstrukturierter Textdaten erforderlich sind, erheblich, wodurch datengesteuerte Entscheidungen in verschiedenen Domänen ermöglicht werden. Das Potenzial für weitere Entwicklung und Anwendung in der gesamten Branche ist erheblich. Für diejenigen, die an einer weiteren LLM -Anwendungsentwicklung interessiert sind, wird ein Kurs über "Entwicklung von LLM -Anwendungen mit Langchain" empfohlen.

GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application GPT-4o and LangGraph Tutorial: Build a TNT-LLM Application

Das obige ist der detaillierte Inhalt vonGPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn