Warum Autorag?
- zahlreiche Lag -Pipelines und -Module : Es gibt viele Möglichkeiten, ein Lappensystem zu konfigurieren - differenzierende Textchunkinggrößen, Einbettungen, Eingabeaufforderung Vorlagen, Retriever -Module usw.
- zeitaufwändiges Experimentieren : Es ist umständlich, jede Pipeline auf Ihren eigenen Daten manuell zu testen. Die meisten Menschen tun es nie, was bedeutet, dass sie eine bessere Leistung oder eine schnellere Inferenz verpassen könnten.
- maßgeschneidert auf Ihre Daten und Anwendungsfall : Generische Benchmarks spiegeln möglicherweise nicht wider, wie gut eine Pipeline auf Ihrem eindeutigen Korpus funktioniert. Autorag beseitigt das Vermutung, indem Sie reale oder synthetische QS -Paare bewerten können, die aus Ihren eigenen Daten stammen.
Schlüsselfunktionen
- Datenerstellung : Mit Autorag können Sie Daten zur Bewertung von Lappen aus Ihren eigenen Rohdokumenten, PDF -Dateien oder anderen Textquellen erstellen. Laden Sie Ihre Dateien einfach hoch, analysieren
- Optimierung : Autorag automatisiert das Ausführen von Experimenten (Hyperparameter -Abstimmung, Pipeline -Auswahl usw.), um die beste Lag -Pipeline für Ihre Daten zu ermitteln. Es misst Metriken wie Genauigkeit, Relevanz und sachliche Korrektheit gegen Ihren QA-Datensatz, um das Setup mit höchsten Leistung zu bestimmen.
- Bereitstellung : Sobald Sie die beste Pipeline identifiziert haben, macht Autorag die Bereitstellung unkompliziert. Eine einzelne YAML -Konfiguration kann die optimale Pipeline in einem Flask -Server oder einer anderen Umgebung Ihrer Wahl bereitstellen.
gebaut mit Gradio auf umarmenden Gesichtsräumen
Die benutzerfreundliche Oberfläche von
Autorag wird mit Gradio erstellt. Die interaktive GUI bedeutet, dass Sie kein tiefes technisches Fachwissen benötigen, um diese Experimente auszuführen. Befolgen Sie einfach die Schritte zum Hochladen von Daten, wählen Sie Parameter und generieren Ergebnisse.
Wie Autorag Rag -Pipelines optimiert
Mit Ihrem QA -Datensatz in der Hand kann Autorag automatisch:
- Testen Sie mehrere Retrievertypen (z. B. vektorbasiert, Schlüsselwort, Hybrid).
- Erforschen Sie verschiedene Chunk -Größen und überlappen Strategien.
- Einbettungsmodelle bewerten (z. B. OpenAI -Einbettungen, umarmende Gesichtstransformatoren).
- Einstellungsvorlagen , um zu sehen, welche die genauesten oder relevantesten Antworten ergibt.
Die Leistung gegen Ihren QA-Datensatz mithilfe von Metriken wie exakter Übereinstimmung, F1-Punktzahl oder benutzerdefinierten domänenspezifischen Metriken messen. -
Sobald die Experimente abgeschlossen sind, haben Sie:
- Eine Rangliste der Pipeline -Konfigurationen sortiert nach Leistungsmetriken.
- klare Erkenntnisse , in die Module oder Parameter die besten Ergebnisse für Ihre Daten liefern.
- Eine automatisch generierte beste Pipeline , die Sie direkt von Autorag bereitstellen können.
Bereitstellung der besten Lag -Pipeline
Wenn Sie bereit sind, live zu gehen, rationalisiert Autorag die Bereitstellung:
- einzelne YAML -Konfiguration : Generieren Sie eine YAML -Datei, in der Ihre Pipeline -Komponenten beschrieben werden (Retriever, Einbettder, Generatormodell usw.).
- Ausführen auf einem Flask-Server : Hostiere deine beste Pipeline in einer lokalen oder cloud-basierten Flask-App, um eine einfache Integration in deinen vorhandenen Software-Stack zu erzielen.
- Gradio/Umarmende Gesichtsräume : Alternativ Alternativ einsetzt auf den Umarmungsflächen mit einer Gradio-Schnittstelle für ein ohne Fuss, interaktiver Demo Ihrer Pipeline.
Warum Autorag verwenden?
Lassen Sie uns jetzt sehen, warum Sie Autorag versuchen sollten:
- Zeit sparen , indem Autorag das starke Anheben der Bewertung mehrerer Lag -Konfigurationen verhandelt.
- Verbesserung der Leistung mit einer Pipeline, die für Ihre eindeutigen Daten und Anforderungen optimiert ist.
- nahtlose Integration mit Gradio auf umarmenden Gesichtsräumen für schnelle Demos oder Produktionsbereitstellungen.
- Open Source und Community-gesteuerte, so können Sie sie an Ihre genauen Anforderungen anpassen oder erweitern.
Autorag ist bereits auf Github tendiert - joo der Community und sehen Sie, wie dieses Tool Ihren Lag -Workflow revolutionieren kann.
Erste Schritte
- Schauen Sie sich Autorag unter GitHub an: Beispiele für den Quellcode, die Dokumentation und die Community -Beispiele.
- Probieren Sie die Autorag-Demo über die Umarmung der Gesichtsräume : Eine gradio-basierte Demo steht Ihnen zur Verfügung, um Dateien hochzuladen, QA-Daten zu erstellen und mit verschiedenen Pipeline-Konfigurationen zu experimentieren.
- Beitrag : Als Open-Source-Projekt begrüßt Autorag PRS, Ausgabenberichte und Feature-Vorschläge.
Autorag entfernt die Vermutung aus dem Erstellen von Lappensystemen durch Automatisierung der Datenerstellung, Pipeline -Experimente und Bereitstellung. Wenn Sie eine schnelle und zuverlässige Möglichkeit wünschen, die beste Lappenkonfiguration für Ihre Daten zu finden, geben Sie Autorag einen Dreh und lassen Sie die Ergebnisse für sich selbst sprechen.
Schritt für Schritt Walkthrough des Autorag
Workflow für Datenerstellung mit den von Ihnen geteilten Screenshots. Diese Anleitung hilft Ihnen dabei, PDFs zu analysieren, Ihre Daten zu platzieren, einen QA -Datensatz zu generieren und sie für weitere Lag -Experimente vorzubereiten.
Schritt 1: Geben Sie Ihren OpenAI -API -Schlüssel
ein
- Öffnen Sie die Autorag -Schnittstelle.
- im Abschnitt "Autorag -Datenerstellung" (Screenshot #1) sehen Sie eine Eingabeaufforderung, die nach Ihrer OpenAI -API -Taste fragt.
- Fügen Sie Ihre API -Taste in das Textfeld ein und drücken Sie die Eingabetaste.
- Nach der Eingabe sollte sich der Status von "Nicht gesetzt" auf "gültig" (oder ähnlich) ändern, was bestätigt, dass der Schlüssel erkannt wurde.
Hinweis: Autorag speichert oder protokolliert Ihre API -Taste nicht.
Sie können auch Ihre bevorzugte Sprache (Englisch, 한국어, 日本語) von der rechten Seite auswählen.
Schritt 2: Analysieren Sie Ihre PDF -Dateien
- scrollen
Klicken Sie auf "Dateien hochladen", um eine oder mehrere PDF -Dokumente von Ihrem Computer auszuwählen. Der Beispiel für Screenshot zeigt eine 2,1 MB PDF -Datei mit dem Namen 66EB856E019E… IC… PDF. -
Wählen Sie eine Parsing -Methode aus dem Dropdown. -
Gemeinsame Optionen sind PDFMiner, PDFPLumber und Pymupdf. -
Jeder Parser hat Stärken und Einschränkungen. Überlegen Sie sich daher, mehrere Methoden zu testen, wenn Sie auf Parsingprobleme stoßen. -
Klicken Sie auf "Parsing ausführen" (oder die gleichwertige Aktionstaste). Autorag liest Ihre PDFs und konvertiert sie in eine einzelne RAW.Parquet -Datei. -
Überwachen Sie das Textfeld für Fortschrittsaktualisierungen. -
Klicken Sie nach Abschluss des Parsens auf "Raw.Parquet herunterladen", um die Ergebnisse lokal oder in Ihrem Arbeitsbereich zu speichern. -
Tipp: Die Datei raw.parquet sind Ihre analysierten Textdaten. Sie können es mit jedem Tool inspizieren, das bei Bedarf das Parquet unterstützt.
Schritt 3: Chunk Your Raw.Parquet
wechseln Sie zu “2. Chunk Your Raw.parquet “(Screenshot #3). -
Wenn Sie den vorherigen Schritt verwendet haben, können Sie "vorherige raw.parquet verwenden" auswählen, um die Datei automatisch zu laden. Andernfalls klicken Sie auf "Hochladen", um Ihre eigene .Parquet -Datei einzubringen. -
Wählen Sie die Chunking -Methode:
- Token : Stücke durch eine bestimmte Anzahl von Token.
- Satz : Text nach Satzgrenzen aufteilt.
- semantisch : Vielleicht verwenden Sie einen semantisch ähnlichen Text mit Einbettungsbasis für Chunk-Text.
- rekursiv : Kann für granuläre Segmente auf mehreren Ebenen einteilen.
Stellen Sie nun die Chunk -Größe mit dem Schieberegler (z. B. 256 Token) und überlappen (z. B. 32 Token). Überlappung hilft dabei, den Kontext über Chunk -Grenzen zu erhalten.
klicken Sie auf "- Ausführen von Chunking ".
Sehen Sie sich die - Textbox für eine Bestätigung oder Statusaktualisierungen an.
Nach Abschluss "- corpus.Parquet " herunterladen, um Ihren neu geschnittenen Datensatz zu erhalten.
Warum Chunking?
Chunking unterteilt Ihren Text in überschaubare Teile, die Abrufmethoden effizient verarbeiten können. Es gleicht den Kontext mit Relevanz aus, so dass Ihr Lappensystem die Token -Grenzen nicht überschreitet oder das Thema des Themas verdünnt.
Schritt 4: Erstellen Sie einen QA -Datensatz aus Corpus.Parquet
in "3. Erstellen Sie den QA -Datensatz aus Ihrem Corpus.Parquet ”(Screenshot #4), laden Sie Ihren Corpus hoch.
Wählen Sie eine QA -Methode:
- Standard : Ein Basisansatz, der Q & A -Paare generiert.
- schnell : Prioritätsgeschwindigkeit und senkt die Kosten, möglicherweise auf Kosten reicher Details.
- Fortgeschrittene : Kann gründlichere, kontextreiche Q & A-Paare erzeugen, kann aber teurer oder langsamer sein.
Modell für die Datenerstellung auswählen:
Beispieloptionen umfassen GPT-4O-Mini oder GPT-4O (Ihre Schnittstelle kann zusätzliche Modelle auflisten). -
Das ausgewählte Modell bestimmt die Qualität und den Stil von Fragen und Antworten. -
Anzahl der QA -Paare:
Der Schieberegler verläuft normalerweise von 20 bis 150. Für einen ersten Lauf halten Sie ihn klein (z. B. 20 oder 30), um die Kosten zu begrenzen. -
Stapelgröße zum Öffnen von Modell:
standardmäßig 16, was 16 Q & A -Paare pro Stapelanforderung bedeutet. Senken Sie es, wenn Sie Rate-Limit-Fehler sehen. -
klicken Sie auf " QA -Erstellung ". Eine Status -Update wird im Textfeld angezeigt.
Nach Abschluss herunterladen Qa.Parquet , um Ihr automatisch erstellter Q & A -Datensatz abzurufen.
Kostenwarnung: Erstellen von Q & A -Daten ruft die OpenAI -API auf, die Nutzungsgebühren verursacht. Überwachen Sie Ihre Verwendung auf der OpenAI -Abrechnungsseite, wenn Sie große Chargen ausführen möchten.
Schritt 5: Verwenden Sie Ihren QA -Datensatz
Jetzt, da Sie: haben
corpus.parquet (Ihre Dokumentdaten) -
Qa.Parquet (automatisch generierte Q & A -Paare) -
Sie können diese in die Bewertung und Optimierung von Autorag einfügen:
- Bewerten Sie mehrere RAG -Konfigurationen - Testen Sie verschiedene Retriever, Chunk -Größen und Einbettungsmodelle, um zu sehen, welche Kombination die Fragen in QA.Parquet am besten beantwortet.
- Überprüfen Sie die Leistungsmetriken (exakte Übereinstimmung, F1 oder domänenspezifische Kriterien), um die optimale Pipeline zu identifizieren.
- Bereitstellen Ihre beste Pipeline über eine einzelne YAML -Konfigurationsdatei - Autorag kann einen Flask -Server oder einen anderen Endpunkt aufspalten.

Schritt 6: Treten Sie der Data Creation Studio Wartelist (optional)
bei
Wenn Sie Ihren automatisch generierten QA-Datensatz anpassen möchten, die Fragen bearbeiten, bestimmte Themen herausfiltern oder domänenspezifische Richtlinien hinzufügen-, bietet Autorag ein Datenerstellungsstudio an. Melden Sie sich direkt in der Schnittstelle für die Warteliste an, indem Sie auf "Data Creation Studio Wartlist beitreten" klicken.
Schlussfolgerung
Autorag bietet einen optimierten und automatisierten Ansatz zur Optimierung von Pipelines (Abruf-Augmented Generation) und sparen Sie wertvolle Zeit und Aufwand, indem verschiedene auf Ihren spezifische Datensatz zugeschnittene Konfigurationen getestet werden. Durch die Vereinfachung der Datenerstellung, das Knacken, die Erzeugung von QA -Datensatz und die Pipeline -Bereitstellung stellt Autorag sicher, dass Sie schnell das effektivste LAB -Setup für Ihren Anwendungsfall identifizieren können. Mit der benutzerfreundlichen Schnittstelle und Integration in die Modelle von OpenAI bietet Autorag sowohl Anfänger als auch erfahrene Benutzer ein zuverlässiges Tool zur effizienten Verbesserung der Leistung des Lappensystems.
Key Takeaways
Autorag automatisiert den Prozess der Optimierung von Rag -Pipelines für eine bessere Leistung. -
Ermöglicht Benutzern, benutzerdefinierte Datensätze zu erstellen und zu bewerten, die auf ihre Datenanforderungen zugeschnitten sind. -
Das Tool vereinfacht die Bereitstellung der besten Pipeline mit nur einer einzelnen YAML -Konfiguration. -
Autorags Open-Source-Natur fördert die gemeinnützigen Verbesserungen und Anpassungen. -
häufig gestellte Fragen
Q1. Was ist Autorag und warum ist es nützlich? a. Autorag ist ein Open-Source-Automl-Tool zur Optimierung von RAG-Pipelines (Abruf-Augment-Generationen) durch Automatisierung von Konfigurationsexperimenten.
Q2. Warum muss ich einen OpenAI -API -Schlüssel bereitstellen? a. Autorag verwendet OpenAI -Modelle, um synthetische Q & A -Paare zu generieren, die für die Bewertung der Lag -Pipeline -Leistung unerlässlich sind.
Q3. Was ist eine RAW.Parquet -Datei und wie wird sie erstellt? a. Wenn Sie PDFs hochladen, extrahiert Autorag den Text zur effizienten Verarbeitung in eine kompakte Parquetdatei.
Q4. Warum muss ich meinen analysierten Text abschneiden, und was ist Corpus.Parquet? a. Das Chunking unterteilt große Textdateien in kleinere, abnehmbare Segmente. Die Ausgabe wird in Corpus.Parquet für eine bessere Lag -Leistung gespeichert.
Q5. Was ist, wenn meine PDFs kennwortgeschützt oder gescannt sind? a. Verschlüsselte oder bildbasierte PDFs benötigen eine Kennwortentfernung oder eine OCR-Verarbeitung, bevor sie mit Autorag verwendet werden können.
Q6. Wie viel kostet es, Q & A -Paare zu generieren? a. Die Kosten hängen von der Korpusgröße, der Anzahl und der Anzahl und der Auswahl der OpenAI -Modell ab. Beginnen Sie mit kleinen Chargen, um die Kosten abzuschätzen.
Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.