Heim >Technologie-Peripheriegeräte >KI >Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

William Shakespeare
William ShakespeareOriginal
2025-03-07 09:09:12285Durchsuche

In den letzten Monaten ist die Retrieval-Augmented-Generation (RAG) als leistungsstarke Technik zur Kombination großer Sprachmodelle mit externen Kenntnissen in die Popularität eingegangen. Die Auswahl der richtigen Lag -Pipeline - Indexing, Einbettungsmodelle, Chunking -Methode, Fragenbeantwortungsansatz - kann jedoch entmutigend sein. Wie können Sie bei unzähligen möglichen Konfigurationen sicher sein, welche Pipeline für Ihre Daten und Ihren Anwendungsfall am besten geeignet ist? Hier kommt Autorag ins Spiel.

Lernziele

  • Verstehen Sie die Grundlagen von Autorag und wie es die Optimierung der RAG -Pipeline automatisiert.
  • Erfahren Sie, wie Autorag verschiedene Lag -Konfigurationen für Ihre Daten systematisch bewertet.
  • Erforschen Sie die wichtigsten Merkmale von Autorag, einschließlich Datenerstellung, Pipeline -Experimentieren und Bereitstellung.
  • sammeln Sie praktische Erfahrungen mit einer Schritt-für-Schritt-Anleitung zum Einrichten und Verwenden von Autorag.
  • Ermitteln Sie, wie Sie die beste Lag-Pipeline mit dem automatisierten Workflow von Autorag bereitstellen.

Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.

Inhaltsverzeichnis

  • Was ist Autorag? Autorag
  • Schlussfolgerung
  • Häufig gestellte Fragen
  • Was ist Autorag?
  • Autorag ist ein Open-Source-Tool (automatisiertes maschinelles Lernen), das sich auf Lappen konzentriert. Es wird systematisch verschiedene Lag -Pipeline -Komponenten in Ihrem eigenen Datensatz getestet und bewertet, um zu bestimmen, welche Konfiguration für Ihren Anwendungsfall am besten ausgeführt wird. Durch automatische Ausführung von Experimenten (und Aufgaben wie Datenerstellung, Chunking, QA -Datensatzgenerierung und Pipeline -Bereitstellungen) spart Autorag Zeit und Ärger.
  • Warum Autorag?

    • zahlreiche Lag -Pipelines und -Module : Es gibt viele Möglichkeiten, ein Lappensystem zu konfigurieren - differenzierende Textchunkinggrößen, Einbettungen, Eingabeaufforderung Vorlagen, Retriever -Module usw.
    • zeitaufwändiges Experimentieren : Es ist umständlich, jede Pipeline auf Ihren eigenen Daten manuell zu testen. Die meisten Menschen tun es nie, was bedeutet, dass sie eine bessere Leistung oder eine schnellere Inferenz verpassen könnten.
    • maßgeschneidert auf Ihre Daten und Anwendungsfall : Generische Benchmarks spiegeln möglicherweise nicht wider, wie gut eine Pipeline auf Ihrem eindeutigen Korpus funktioniert. Autorag beseitigt das Vermutung, indem Sie reale oder synthetische QS -Paare bewerten können, die aus Ihren eigenen Daten stammen.

    Schlüsselfunktionen

    • Datenerstellung : Mit Autorag können Sie Daten zur Bewertung von Lappen aus Ihren eigenen Rohdokumenten, PDF -Dateien oder anderen Textquellen erstellen. Laden Sie Ihre Dateien einfach hoch, analysieren
    • Optimierung : Autorag automatisiert das Ausführen von Experimenten (Hyperparameter -Abstimmung, Pipeline -Auswahl usw.), um die beste Lag -Pipeline für Ihre Daten zu ermitteln. Es misst Metriken wie Genauigkeit, Relevanz und sachliche Korrektheit gegen Ihren QA-Datensatz, um das Setup mit höchsten Leistung zu bestimmen.
    • Bereitstellung : Sobald Sie die beste Pipeline identifiziert haben, macht Autorag die Bereitstellung unkompliziert. Eine einzelne YAML -Konfiguration kann die optimale Pipeline in einem Flask -Server oder einer anderen Umgebung Ihrer Wahl bereitstellen.
    gebaut mit Gradio auf umarmenden Gesichtsräumen

    Die benutzerfreundliche Oberfläche von

    Autorag wird mit Gradio erstellt. Die interaktive GUI bedeutet, dass Sie kein tiefes technisches Fachwissen benötigen, um diese Experimente auszuführen. Befolgen Sie einfach die Schritte zum Hochladen von Daten, wählen Sie Parameter und generieren Ergebnisse.

    Wie Autorag Rag -Pipelines

    optimiert

    Mit Ihrem QA -Datensatz in der Hand kann Autorag automatisch:

    • Testen Sie mehrere Retrievertypen (z. B. vektorbasiert, Schlüsselwort, Hybrid).
    • Erforschen Sie verschiedene Chunk -Größen und überlappen Strategien.
    • Einbettungsmodelle bewerten (z. B. OpenAI -Einbettungen, umarmende Gesichtstransformatoren).
    • Einstellungsvorlagen , um zu sehen, welche die genauesten oder relevantesten Antworten ergibt.
    • Die Leistung gegen Ihren QA-Datensatz mithilfe von Metriken wie exakter Übereinstimmung, F1-Punktzahl oder benutzerdefinierten domänenspezifischen Metriken messen.
    Sobald die Experimente abgeschlossen sind, haben Sie:

    • Eine Rangliste der Pipeline -Konfigurationen sortiert nach Leistungsmetriken.
    • klare Erkenntnisse , in die Module oder Parameter die besten Ergebnisse für Ihre Daten liefern.
    • Eine automatisch generierte beste Pipeline , die Sie direkt von Autorag bereitstellen können.

    Bereitstellung der besten Lag -Pipeline

    Wenn Sie bereit sind, live zu gehen, rationalisiert Autorag die Bereitstellung:

    • einzelne YAML -Konfiguration : Generieren Sie eine YAML -Datei, in der Ihre Pipeline -Komponenten beschrieben werden (Retriever, Einbettder, Generatormodell usw.).
    • Ausführen auf einem Flask-Server : Hostiere deine beste Pipeline in einer lokalen oder cloud-basierten Flask-App, um eine einfache Integration in deinen vorhandenen Software-Stack zu erzielen.
    • Gradio/Umarmende Gesichtsräume : Alternativ Alternativ einsetzt auf den Umarmungsflächen mit einer Gradio-Schnittstelle für ein ohne Fuss, interaktiver Demo Ihrer Pipeline.

    Warum Autorag verwenden?

    Lassen Sie uns jetzt sehen, warum Sie Autorag versuchen sollten:

    • Zeit sparen , indem Autorag das starke Anheben der Bewertung mehrerer Lag -Konfigurationen verhandelt.
    • Verbesserung der Leistung mit einer Pipeline, die für Ihre eindeutigen Daten und Anforderungen optimiert ist.
    • nahtlose Integration mit Gradio auf umarmenden Gesichtsräumen für schnelle Demos oder Produktionsbereitstellungen.
    • Open Source und Community-gesteuerte, so können Sie sie an Ihre genauen Anforderungen anpassen oder erweitern.

    Autorag ist bereits auf Github tendiert - joo der Community und sehen Sie, wie dieses Tool Ihren Lag -Workflow revolutionieren kann.

    Erste Schritte

    • Schauen Sie sich Autorag unter GitHub an: Beispiele für den Quellcode, die Dokumentation und die Community -Beispiele.
    • Probieren Sie die Autorag-Demo über die Umarmung der Gesichtsräume : Eine gradio-basierte Demo steht Ihnen zur Verfügung, um Dateien hochzuladen, QA-Daten zu erstellen und mit verschiedenen Pipeline-Konfigurationen zu experimentieren.
    • Beitrag : Als Open-Source-Projekt begrüßt Autorag PRS, Ausgabenberichte und Feature-Vorschläge.

    Autorag entfernt die Vermutung aus dem Erstellen von Lappensystemen durch Automatisierung der Datenerstellung, Pipeline -Experimente und Bereitstellung. Wenn Sie eine schnelle und zuverlässige Möglichkeit wünschen, die beste Lappenkonfiguration für Ihre Daten zu finden, geben Sie Autorag einen Dreh und lassen Sie die Ergebnisse für sich selbst sprechen.

    Schritt für Schritt Walkthrough des Autorag

    Workflow für Datenerstellung mit den von Ihnen geteilten Screenshots. Diese Anleitung hilft Ihnen dabei, PDFs zu analysieren, Ihre Daten zu platzieren, einen QA -Datensatz zu generieren und sie für weitere Lag -Experimente vorzubereiten.

    Schritt 1: Geben Sie Ihren OpenAI -API -Schlüssel

    ein
    • Öffnen Sie die Autorag -Schnittstelle.
    • im Abschnitt "Autorag -Datenerstellung" (Screenshot #1) sehen Sie eine Eingabeaufforderung, die nach Ihrer OpenAI -API -Taste fragt.
    • Fügen Sie Ihre API -Taste in das Textfeld ein und drücken Sie die Eingabetaste.
    • Nach der Eingabe sollte sich der Status von "Nicht gesetzt" auf "gültig" (oder ähnlich) ändern, was bestätigt, dass der Schlüssel erkannt wurde.

    Hinweis: Autorag speichert oder protokolliert Ihre API -Taste nicht.

    Sie können auch Ihre bevorzugte Sprache (Englisch, 한국어, 日本語) von der rechten Seite auswählen.

    Schritt 2: Analysieren Sie Ihre PDF -Dateien

    • scrollen
    • Klicken Sie auf "Dateien hochladen", um eine oder mehrere PDF -Dokumente von Ihrem Computer auszuwählen. Der Beispiel für Screenshot zeigt eine 2,1 MB PDF -Datei mit dem Namen 66EB856E019E… IC… PDF.
    • Wählen Sie eine Parsing -Methode aus dem Dropdown.
    • Gemeinsame Optionen sind PDFMiner, PDFPLumber und Pymupdf.
    • Jeder Parser hat Stärken und Einschränkungen. Überlegen Sie sich daher, mehrere Methoden zu testen, wenn Sie auf Parsingprobleme stoßen.
    • Klicken Sie auf "Parsing ausführen" (oder die gleichwertige Aktionstaste). Autorag liest Ihre PDFs und konvertiert sie in eine einzelne RAW.Parquet -Datei.
    • Überwachen Sie das Textfeld für Fortschrittsaktualisierungen.
    • Klicken Sie nach Abschluss des Parsens auf "Raw.Parquet herunterladen", um die Ergebnisse lokal oder in Ihrem Arbeitsbereich zu speichern.

    Tipp: Die Datei raw.parquet sind Ihre analysierten Textdaten. Sie können es mit jedem Tool inspizieren, das bei Bedarf das Parquet unterstützt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 3: Chunk Your Raw.Parquet

      wechseln Sie zu “2. Chunk Your Raw.parquet “(Screenshot #3).
    • Wenn Sie den vorherigen Schritt verwendet haben, können Sie "vorherige raw.parquet verwenden" auswählen, um die Datei automatisch zu laden. Andernfalls klicken Sie auf "Hochladen", um Ihre eigene .Parquet -Datei einzubringen.

    Wählen Sie die Chunking -Methode:

    • Token : Stücke durch eine bestimmte Anzahl von Token.
    • Satz : Text nach Satzgrenzen aufteilt.
    • semantisch : Vielleicht verwenden Sie einen semantisch ähnlichen Text mit Einbettungsbasis für Chunk-Text.
    • rekursiv : Kann für granuläre Segmente auf mehreren Ebenen einteilen.
    Stellen Sie nun die Chunk -Größe mit dem Schieberegler (z. B. 256 Token) und überlappen (z. B. 32 Token). Überlappung hilft dabei, den Kontext über Chunk -Grenzen zu erhalten.

      klicken Sie auf "
    • Ausführen von Chunking ".
    • Sehen Sie sich die
    • Textbox für eine Bestätigung oder Statusaktualisierungen an.
    • Nach Abschluss "
    • corpus.Parquet " herunterladen, um Ihren neu geschnittenen Datensatz zu erhalten.

    Warum Chunking?

    Chunking unterteilt Ihren Text in überschaubare Teile, die Abrufmethoden effizient verarbeiten können. Es gleicht den Kontext mit Relevanz aus, so dass Ihr Lappensystem die Token -Grenzen nicht überschreitet oder das Thema des Themas verdünnt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 4: Erstellen Sie einen QA -Datensatz aus Corpus.Parquet

    in "3. Erstellen Sie den QA -Datensatz aus Ihrem Corpus.Parquet ”(Screenshot #4), laden Sie Ihren Corpus hoch.

    Wählen Sie eine QA -Methode:

    • Standard : Ein Basisansatz, der Q & A -Paare generiert.
    • schnell : Prioritätsgeschwindigkeit und senkt die Kosten, möglicherweise auf Kosten reicher Details.
    • Fortgeschrittene : Kann gründlichere, kontextreiche Q & A-Paare erzeugen, kann aber teurer oder langsamer sein.

    Modell für die Datenerstellung auswählen:

      Beispieloptionen umfassen GPT-4O-Mini oder GPT-4O (Ihre Schnittstelle kann zusätzliche Modelle auflisten).
    • Das ausgewählte Modell bestimmt die Qualität und den Stil von Fragen und Antworten.

    Anzahl der QA -Paare:

      Der Schieberegler verläuft normalerweise von 20 bis 150. Für einen ersten Lauf halten Sie ihn klein (z. B. 20 oder 30), um die Kosten zu begrenzen.

    Stapelgröße zum Öffnen von Modell:

      standardmäßig 16, was 16 Q & A -Paare pro Stapelanforderung bedeutet. Senken Sie es, wenn Sie Rate-Limit-Fehler sehen.
    klicken Sie auf "

    QA -Erstellung ". Eine Status -Update wird im Textfeld angezeigt.

    Nach Abschluss

    herunterladen Qa.Parquet , um Ihr automatisch erstellter Q & A -Datensatz abzurufen.

    Kostenwarnung: Erstellen von Q & A -Daten ruft die OpenAI -API auf, die Nutzungsgebühren verursacht. Überwachen Sie Ihre Verwendung auf der OpenAI -Abrechnungsseite, wenn Sie große Chargen ausführen möchten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 5: Verwenden Sie Ihren QA -Datensatz

    Jetzt, da Sie:

    haben

      corpus.parquet (Ihre Dokumentdaten)
    • Qa.Parquet (automatisch generierte Q & A -Paare)
    Sie können diese in die Bewertung und Optimierung von Autorag einfügen:

    • Bewerten Sie mehrere RAG -Konfigurationen - Testen Sie verschiedene Retriever, Chunk -Größen und Einbettungsmodelle, um zu sehen, welche Kombination die Fragen in QA.Parquet am besten beantwortet.
    • Überprüfen Sie die Leistungsmetriken (exakte Übereinstimmung, F1 oder domänenspezifische Kriterien), um die optimale Pipeline zu identifizieren.
    • Bereitstellen Ihre beste Pipeline über eine einzelne YAML -Konfigurationsdatei - Autorag kann einen Flask -Server oder einen anderen Endpunkt aufspalten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 6: Treten Sie der Data Creation Studio Wartelist (optional)

    bei

    Wenn Sie Ihren automatisch generierten QA-Datensatz anpassen möchten, die Fragen bearbeiten, bestimmte Themen herausfiltern oder domänenspezifische Richtlinien hinzufügen-, bietet Autorag ein Datenerstellungsstudio an. Melden Sie sich direkt in der Schnittstelle für die Warteliste an, indem Sie auf "Data Creation Studio Wartlist beitreten" klicken.

    Schlussfolgerung

    Autorag bietet einen optimierten und automatisierten Ansatz zur Optimierung von Pipelines (Abruf-Augmented Generation) und sparen Sie wertvolle Zeit und Aufwand, indem verschiedene auf Ihren spezifische Datensatz zugeschnittene Konfigurationen getestet werden. Durch die Vereinfachung der Datenerstellung, das Knacken, die Erzeugung von QA -Datensatz und die Pipeline -Bereitstellung stellt Autorag sicher, dass Sie schnell das effektivste LAB -Setup für Ihren Anwendungsfall identifizieren können. Mit der benutzerfreundlichen Schnittstelle und Integration in die Modelle von OpenAI bietet Autorag sowohl Anfänger als auch erfahrene Benutzer ein zuverlässiges Tool zur effizienten Verbesserung der Leistung des Lappensystems.

    Key Takeaways

      Autorag automatisiert den Prozess der Optimierung von Rag -Pipelines für eine bessere Leistung.
    • Ermöglicht Benutzern, benutzerdefinierte Datensätze zu erstellen und zu bewerten, die auf ihre Datenanforderungen zugeschnitten sind.
    • Das Tool vereinfacht die Bereitstellung der besten Pipeline mit nur einer einzelnen YAML -Konfiguration.
    • Autorags Open-Source-Natur fördert die gemeinnützigen Verbesserungen und Anpassungen.
    häufig gestellte Fragen

    Q1. Was ist Autorag und warum ist es nützlich? a. Autorag ist ein Open-Source-Automl-Tool zur Optimierung von RAG-Pipelines (Abruf-Augment-Generationen) durch Automatisierung von Konfigurationsexperimenten.

    Q2. Warum muss ich einen OpenAI -API -Schlüssel bereitstellen? a. Autorag verwendet OpenAI -Modelle, um synthetische Q & A -Paare zu generieren, die für die Bewertung der Lag -Pipeline -Leistung unerlässlich sind.

    Q3. Was ist eine RAW.Parquet -Datei und wie wird sie erstellt? a. Wenn Sie PDFs hochladen, extrahiert Autorag den Text zur effizienten Verarbeitung in eine kompakte Parquetdatei.

    Q4. Warum muss ich meinen analysierten Text abschneiden, und was ist Corpus.Parquet? a. Das Chunking unterteilt große Textdateien in kleinere, abnehmbare Segmente. Die Ausgabe wird in Corpus.Parquet für eine bessere Lag -Leistung gespeichert.

    Q5. Was ist, wenn meine PDFs kennwortgeschützt oder gescannt sind? a. Verschlüsselte oder bildbasierte PDFs benötigen eine Kennwortentfernung oder eine OCR-Verarbeitung, bevor sie mit Autorag verwendet werden können.

    Q6. Wie viel kostet es, Q & A -Paare zu generieren? a. Die Kosten hängen von der Korpusgröße, der Anzahl und der Anzahl und der Auswahl der OpenAI -Modell ab. Beginnen Sie mit kleinen Chargen, um die Kosten abzuschätzen.

    Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.

Das obige ist der detaillierte Inhalt vonAutorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn