suchen
HeimTechnologie-PeripheriegeräteKIAutorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

In den letzten Monaten ist die Retrieval-Augmented-Generation (RAG) als leistungsstarke Technik zur Kombination großer Sprachmodelle mit externen Kenntnissen in die Popularität eingegangen. Die Auswahl der richtigen Lag -Pipeline - Indexing, Einbettungsmodelle, Chunking -Methode, Fragenbeantwortungsansatz - kann jedoch entmutigend sein. Wie können Sie bei unzähligen möglichen Konfigurationen sicher sein, welche Pipeline für Ihre Daten und Ihren Anwendungsfall am besten geeignet ist? Hier kommt Autorag ins Spiel.

Lernziele

  • Verstehen Sie die Grundlagen von Autorag und wie es die Optimierung der RAG -Pipeline automatisiert.
  • Erfahren Sie, wie Autorag verschiedene Lag -Konfigurationen für Ihre Daten systematisch bewertet.
  • Erforschen Sie die wichtigsten Merkmale von Autorag, einschließlich Datenerstellung, Pipeline -Experimentieren und Bereitstellung.
  • sammeln Sie praktische Erfahrungen mit einer Schritt-für-Schritt-Anleitung zum Einrichten und Verwenden von Autorag.
  • Ermitteln Sie, wie Sie die beste Lag-Pipeline mit dem automatisierten Workflow von Autorag bereitstellen.

Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.

Inhaltsverzeichnis

  • Was ist Autorag? Autorag
  • Schlussfolgerung
  • Häufig gestellte Fragen
  • Was ist Autorag?
  • Autorag ist ein Open-Source-Tool (automatisiertes maschinelles Lernen), das sich auf Lappen konzentriert. Es wird systematisch verschiedene Lag -Pipeline -Komponenten in Ihrem eigenen Datensatz getestet und bewertet, um zu bestimmen, welche Konfiguration für Ihren Anwendungsfall am besten ausgeführt wird. Durch automatische Ausführung von Experimenten (und Aufgaben wie Datenerstellung, Chunking, QA -Datensatzgenerierung und Pipeline -Bereitstellungen) spart Autorag Zeit und Ärger.
  • Warum Autorag?

    • zahlreiche Lag -Pipelines und -Module : Es gibt viele Möglichkeiten, ein Lappensystem zu konfigurieren - differenzierende Textchunkinggrößen, Einbettungen, Eingabeaufforderung Vorlagen, Retriever -Module usw.
    • zeitaufwändiges Experimentieren : Es ist umständlich, jede Pipeline auf Ihren eigenen Daten manuell zu testen. Die meisten Menschen tun es nie, was bedeutet, dass sie eine bessere Leistung oder eine schnellere Inferenz verpassen könnten.
    • maßgeschneidert auf Ihre Daten und Anwendungsfall : Generische Benchmarks spiegeln möglicherweise nicht wider, wie gut eine Pipeline auf Ihrem eindeutigen Korpus funktioniert. Autorag beseitigt das Vermutung, indem Sie reale oder synthetische QS -Paare bewerten können, die aus Ihren eigenen Daten stammen.

    Schlüsselfunktionen

    • Datenerstellung : Mit Autorag können Sie Daten zur Bewertung von Lappen aus Ihren eigenen Rohdokumenten, PDF -Dateien oder anderen Textquellen erstellen. Laden Sie Ihre Dateien einfach hoch, analysieren
    • Optimierung : Autorag automatisiert das Ausführen von Experimenten (Hyperparameter -Abstimmung, Pipeline -Auswahl usw.), um die beste Lag -Pipeline für Ihre Daten zu ermitteln. Es misst Metriken wie Genauigkeit, Relevanz und sachliche Korrektheit gegen Ihren QA-Datensatz, um das Setup mit höchsten Leistung zu bestimmen.
    • Bereitstellung : Sobald Sie die beste Pipeline identifiziert haben, macht Autorag die Bereitstellung unkompliziert. Eine einzelne YAML -Konfiguration kann die optimale Pipeline in einem Flask -Server oder einer anderen Umgebung Ihrer Wahl bereitstellen.
    gebaut mit Gradio auf umarmenden Gesichtsräumen

    Die benutzerfreundliche Oberfläche von

    Autorag wird mit Gradio erstellt. Die interaktive GUI bedeutet, dass Sie kein tiefes technisches Fachwissen benötigen, um diese Experimente auszuführen. Befolgen Sie einfach die Schritte zum Hochladen von Daten, wählen Sie Parameter und generieren Ergebnisse.

    Wie Autorag Rag -Pipelines

    optimiert

    Mit Ihrem QA -Datensatz in der Hand kann Autorag automatisch:

    • Testen Sie mehrere Retrievertypen (z. B. vektorbasiert, Schlüsselwort, Hybrid).
    • Erforschen Sie verschiedene Chunk -Größen und überlappen Strategien.
    • Einbettungsmodelle bewerten (z. B. OpenAI -Einbettungen, umarmende Gesichtstransformatoren).
    • Einstellungsvorlagen , um zu sehen, welche die genauesten oder relevantesten Antworten ergibt.
    • Die Leistung gegen Ihren QA-Datensatz mithilfe von Metriken wie exakter Übereinstimmung, F1-Punktzahl oder benutzerdefinierten domänenspezifischen Metriken messen.
    Sobald die Experimente abgeschlossen sind, haben Sie:

    • Eine Rangliste der Pipeline -Konfigurationen sortiert nach Leistungsmetriken.
    • klare Erkenntnisse , in die Module oder Parameter die besten Ergebnisse für Ihre Daten liefern.
    • Eine automatisch generierte beste Pipeline , die Sie direkt von Autorag bereitstellen können.

    Bereitstellung der besten Lag -Pipeline

    Wenn Sie bereit sind, live zu gehen, rationalisiert Autorag die Bereitstellung:

    • einzelne YAML -Konfiguration : Generieren Sie eine YAML -Datei, in der Ihre Pipeline -Komponenten beschrieben werden (Retriever, Einbettder, Generatormodell usw.).
    • Ausführen auf einem Flask-Server : Hostiere deine beste Pipeline in einer lokalen oder cloud-basierten Flask-App, um eine einfache Integration in deinen vorhandenen Software-Stack zu erzielen.
    • Gradio/Umarmende Gesichtsräume : Alternativ Alternativ einsetzt auf den Umarmungsflächen mit einer Gradio-Schnittstelle für ein ohne Fuss, interaktiver Demo Ihrer Pipeline.

    Warum Autorag verwenden?

    Lassen Sie uns jetzt sehen, warum Sie Autorag versuchen sollten:

    • Zeit sparen , indem Autorag das starke Anheben der Bewertung mehrerer Lag -Konfigurationen verhandelt.
    • Verbesserung der Leistung mit einer Pipeline, die für Ihre eindeutigen Daten und Anforderungen optimiert ist.
    • nahtlose Integration mit Gradio auf umarmenden Gesichtsräumen für schnelle Demos oder Produktionsbereitstellungen.
    • Open Source und Community-gesteuerte, so können Sie sie an Ihre genauen Anforderungen anpassen oder erweitern.

    Autorag ist bereits auf Github tendiert - joo der Community und sehen Sie, wie dieses Tool Ihren Lag -Workflow revolutionieren kann.

    Erste Schritte

    • Schauen Sie sich Autorag unter GitHub an: Beispiele für den Quellcode, die Dokumentation und die Community -Beispiele.
    • Probieren Sie die Autorag-Demo über die Umarmung der Gesichtsräume : Eine gradio-basierte Demo steht Ihnen zur Verfügung, um Dateien hochzuladen, QA-Daten zu erstellen und mit verschiedenen Pipeline-Konfigurationen zu experimentieren.
    • Beitrag : Als Open-Source-Projekt begrüßt Autorag PRS, Ausgabenberichte und Feature-Vorschläge.

    Autorag entfernt die Vermutung aus dem Erstellen von Lappensystemen durch Automatisierung der Datenerstellung, Pipeline -Experimente und Bereitstellung. Wenn Sie eine schnelle und zuverlässige Möglichkeit wünschen, die beste Lappenkonfiguration für Ihre Daten zu finden, geben Sie Autorag einen Dreh und lassen Sie die Ergebnisse für sich selbst sprechen.

    Schritt für Schritt Walkthrough des Autorag

    Workflow für Datenerstellung mit den von Ihnen geteilten Screenshots. Diese Anleitung hilft Ihnen dabei, PDFs zu analysieren, Ihre Daten zu platzieren, einen QA -Datensatz zu generieren und sie für weitere Lag -Experimente vorzubereiten.

    Schritt 1: Geben Sie Ihren OpenAI -API -Schlüssel

    ein
    • Öffnen Sie die Autorag -Schnittstelle.
    • im Abschnitt "Autorag -Datenerstellung" (Screenshot #1) sehen Sie eine Eingabeaufforderung, die nach Ihrer OpenAI -API -Taste fragt.
    • Fügen Sie Ihre API -Taste in das Textfeld ein und drücken Sie die Eingabetaste.
    • Nach der Eingabe sollte sich der Status von "Nicht gesetzt" auf "gültig" (oder ähnlich) ändern, was bestätigt, dass der Schlüssel erkannt wurde.

    Hinweis: Autorag speichert oder protokolliert Ihre API -Taste nicht.

    Sie können auch Ihre bevorzugte Sprache (Englisch, 한국어, 日本語) von der rechten Seite auswählen.

    Schritt 2: Analysieren Sie Ihre PDF -Dateien

    • scrollen
    • Klicken Sie auf "Dateien hochladen", um eine oder mehrere PDF -Dokumente von Ihrem Computer auszuwählen. Der Beispiel für Screenshot zeigt eine 2,1 MB PDF -Datei mit dem Namen 66EB856E019E… IC… PDF.
    • Wählen Sie eine Parsing -Methode aus dem Dropdown.
    • Gemeinsame Optionen sind PDFMiner, PDFPLumber und Pymupdf.
    • Jeder Parser hat Stärken und Einschränkungen. Überlegen Sie sich daher, mehrere Methoden zu testen, wenn Sie auf Parsingprobleme stoßen.
    • Klicken Sie auf "Parsing ausführen" (oder die gleichwertige Aktionstaste). Autorag liest Ihre PDFs und konvertiert sie in eine einzelne RAW.Parquet -Datei.
    • Überwachen Sie das Textfeld für Fortschrittsaktualisierungen.
    • Klicken Sie nach Abschluss des Parsens auf "Raw.Parquet herunterladen", um die Ergebnisse lokal oder in Ihrem Arbeitsbereich zu speichern.

    Tipp: Die Datei raw.parquet sind Ihre analysierten Textdaten. Sie können es mit jedem Tool inspizieren, das bei Bedarf das Parquet unterstützt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 3: Chunk Your Raw.Parquet

      wechseln Sie zu “2. Chunk Your Raw.parquet “(Screenshot #3).
    • Wenn Sie den vorherigen Schritt verwendet haben, können Sie "vorherige raw.parquet verwenden" auswählen, um die Datei automatisch zu laden. Andernfalls klicken Sie auf "Hochladen", um Ihre eigene .Parquet -Datei einzubringen.

    Wählen Sie die Chunking -Methode:

    • Token : Stücke durch eine bestimmte Anzahl von Token.
    • Satz : Text nach Satzgrenzen aufteilt.
    • semantisch : Vielleicht verwenden Sie einen semantisch ähnlichen Text mit Einbettungsbasis für Chunk-Text.
    • rekursiv : Kann für granuläre Segmente auf mehreren Ebenen einteilen.
    Stellen Sie nun die Chunk -Größe mit dem Schieberegler (z. B. 256 Token) und überlappen (z. B. 32 Token). Überlappung hilft dabei, den Kontext über Chunk -Grenzen zu erhalten.

      klicken Sie auf "
    • Ausführen von Chunking ".
    • Sehen Sie sich die
    • Textbox für eine Bestätigung oder Statusaktualisierungen an.
    • Nach Abschluss "
    • corpus.Parquet " herunterladen, um Ihren neu geschnittenen Datensatz zu erhalten.

    Warum Chunking?

    Chunking unterteilt Ihren Text in überschaubare Teile, die Abrufmethoden effizient verarbeiten können. Es gleicht den Kontext mit Relevanz aus, so dass Ihr Lappensystem die Token -Grenzen nicht überschreitet oder das Thema des Themas verdünnt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 4: Erstellen Sie einen QA -Datensatz aus Corpus.Parquet

    in "3. Erstellen Sie den QA -Datensatz aus Ihrem Corpus.Parquet ”(Screenshot #4), laden Sie Ihren Corpus hoch.

    Wählen Sie eine QA -Methode:

    • Standard : Ein Basisansatz, der Q & A -Paare generiert.
    • schnell : Prioritätsgeschwindigkeit und senkt die Kosten, möglicherweise auf Kosten reicher Details.
    • Fortgeschrittene : Kann gründlichere, kontextreiche Q & A-Paare erzeugen, kann aber teurer oder langsamer sein.

    Modell für die Datenerstellung auswählen:

      Beispieloptionen umfassen GPT-4O-Mini oder GPT-4O (Ihre Schnittstelle kann zusätzliche Modelle auflisten).
    • Das ausgewählte Modell bestimmt die Qualität und den Stil von Fragen und Antworten.

    Anzahl der QA -Paare:

      Der Schieberegler verläuft normalerweise von 20 bis 150. Für einen ersten Lauf halten Sie ihn klein (z. B. 20 oder 30), um die Kosten zu begrenzen.

    Stapelgröße zum Öffnen von Modell:

      standardmäßig 16, was 16 Q & A -Paare pro Stapelanforderung bedeutet. Senken Sie es, wenn Sie Rate-Limit-Fehler sehen.
    klicken Sie auf "

    QA -Erstellung ". Eine Status -Update wird im Textfeld angezeigt.

    Nach Abschluss

    herunterladen Qa.Parquet , um Ihr automatisch erstellter Q & A -Datensatz abzurufen.

    Kostenwarnung: Erstellen von Q & A -Daten ruft die OpenAI -API auf, die Nutzungsgebühren verursacht. Überwachen Sie Ihre Verwendung auf der OpenAI -Abrechnungsseite, wenn Sie große Chargen ausführen möchten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 5: Verwenden Sie Ihren QA -Datensatz

    Jetzt, da Sie:

    haben

      corpus.parquet (Ihre Dokumentdaten)
    • Qa.Parquet (automatisch generierte Q & A -Paare)
    Sie können diese in die Bewertung und Optimierung von Autorag einfügen:

    • Bewerten Sie mehrere RAG -Konfigurationen - Testen Sie verschiedene Retriever, Chunk -Größen und Einbettungsmodelle, um zu sehen, welche Kombination die Fragen in QA.Parquet am besten beantwortet.
    • Überprüfen Sie die Leistungsmetriken (exakte Übereinstimmung, F1 oder domänenspezifische Kriterien), um die optimale Pipeline zu identifizieren.
    • Bereitstellen Ihre beste Pipeline über eine einzelne YAML -Konfigurationsdatei - Autorag kann einen Flask -Server oder einen anderen Endpunkt aufspalten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 6: Treten Sie der Data Creation Studio Wartelist (optional)

    bei

    Wenn Sie Ihren automatisch generierten QA-Datensatz anpassen möchten, die Fragen bearbeiten, bestimmte Themen herausfiltern oder domänenspezifische Richtlinien hinzufügen-, bietet Autorag ein Datenerstellungsstudio an. Melden Sie sich direkt in der Schnittstelle für die Warteliste an, indem Sie auf "Data Creation Studio Wartlist beitreten" klicken.

    Schlussfolgerung

    Autorag bietet einen optimierten und automatisierten Ansatz zur Optimierung von Pipelines (Abruf-Augmented Generation) und sparen Sie wertvolle Zeit und Aufwand, indem verschiedene auf Ihren spezifische Datensatz zugeschnittene Konfigurationen getestet werden. Durch die Vereinfachung der Datenerstellung, das Knacken, die Erzeugung von QA -Datensatz und die Pipeline -Bereitstellung stellt Autorag sicher, dass Sie schnell das effektivste LAB -Setup für Ihren Anwendungsfall identifizieren können. Mit der benutzerfreundlichen Schnittstelle und Integration in die Modelle von OpenAI bietet Autorag sowohl Anfänger als auch erfahrene Benutzer ein zuverlässiges Tool zur effizienten Verbesserung der Leistung des Lappensystems.

    Key Takeaways

      Autorag automatisiert den Prozess der Optimierung von Rag -Pipelines für eine bessere Leistung.
    • Ermöglicht Benutzern, benutzerdefinierte Datensätze zu erstellen und zu bewerten, die auf ihre Datenanforderungen zugeschnitten sind.
    • Das Tool vereinfacht die Bereitstellung der besten Pipeline mit nur einer einzelnen YAML -Konfiguration.
    • Autorags Open-Source-Natur fördert die gemeinnützigen Verbesserungen und Anpassungen.
    häufig gestellte Fragen

    Q1. Was ist Autorag und warum ist es nützlich? a. Autorag ist ein Open-Source-Automl-Tool zur Optimierung von RAG-Pipelines (Abruf-Augment-Generationen) durch Automatisierung von Konfigurationsexperimenten.

    Q2. Warum muss ich einen OpenAI -API -Schlüssel bereitstellen? a. Autorag verwendet OpenAI -Modelle, um synthetische Q & A -Paare zu generieren, die für die Bewertung der Lag -Pipeline -Leistung unerlässlich sind.

    Q3. Was ist eine RAW.Parquet -Datei und wie wird sie erstellt? a. Wenn Sie PDFs hochladen, extrahiert Autorag den Text zur effizienten Verarbeitung in eine kompakte Parquetdatei.

    Q4. Warum muss ich meinen analysierten Text abschneiden, und was ist Corpus.Parquet? a. Das Chunking unterteilt große Textdateien in kleinere, abnehmbare Segmente. Die Ausgabe wird in Corpus.Parquet für eine bessere Lag -Leistung gespeichert.

    Q5. Was ist, wenn meine PDFs kennwortgeschützt oder gescannt sind? a. Verschlüsselte oder bildbasierte PDFs benötigen eine Kennwortentfernung oder eine OCR-Verarbeitung, bevor sie mit Autorag verwendet werden können.

    Q6. Wie viel kostet es, Q & A -Paare zu generieren? a. Die Kosten hängen von der Korpusgröße, der Anzahl und der Anzahl und der Auswahl der OpenAI -Modell ab. Beginnen Sie mit kleinen Chargen, um die Kosten abzuschätzen.

    Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.

Das obige ist der detaillierte Inhalt vonAutorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Der neue KI -Assistent von Meta: Produktivitätswahrnehmung oder Zeitspüle?Der neue KI -Assistent von Meta: Produktivitätswahrnehmung oder Zeitspüle?May 01, 2025 am 11:18 AM

Meta hat sich mit Partnern wie Nvidia, IBM und Dell zusammengetan, um die Einsatzintegration von Lama Stack auf Unternehmensebene zu erweitern. In Bezug auf die Sicherheit hat Meta neue Tools wie Llam Guard 4, Llamafirewall und Cyberseceval 4 auf den Markt gebracht und das Lama Defenders -Programm gestartet, um die KI -Sicherheit zu verbessern. Darüber hinaus hat Meta 1,5 Millionen US -Dollar an Lama -Impact -Zuschüssen an 10 globale Institutionen verteilt, darunter Startups, die an der Verbesserung der öffentlichen Dienste, der Gesundheitsversorgung und der Bildung arbeiten. Die neue Meta -AI -Anwendung von Lama 4, die als Meta AI konzipiert wurde

80% der Gen -Zers würden eine KI heiraten: Studium80% der Gen -Zers würden eine KI heiraten: StudiumMay 01, 2025 am 11:17 AM

Joi Ai, eine Firma Pionierin der Human-AI-Interaktion, hat den Begriff "AI-Lationships" eingeführt, um diese sich entwickelnden Beziehungen zu beschreiben. Jaime Bronstein, ein Beziehungstherapeut bei Joi AI, stellt klar, dass diese nicht dazu gedacht sind, das Menschen C zu ersetzen C.

AI verschlimmert das Bot -Problem des Internets. Dieses Startup von 2 Milliarden US -Dollar liegt an vorderster FrontAI verschlimmert das Bot -Problem des Internets. Dieses Startup von 2 Milliarden US -Dollar liegt an vorderster FrontMay 01, 2025 am 11:16 AM

Online -Betrug und Bot -Angriffe stellen eine bedeutende Herausforderung für Unternehmen dar. Einzelhändler bekämpfen Bots, die Produkte horten, Banken Battle Account Takeovers und Social -Media -Plattformen kämpfen mit Imitatoren. Der Aufstieg von AI verschärft dieses Problem, das Rende

Verkauf an Roboter: Die Marketing -Revolution, die Ihr Geschäft herstellt oder brechen wirdVerkauf an Roboter: Die Marketing -Revolution, die Ihr Geschäft herstellt oder brechen wirdMay 01, 2025 am 11:15 AM

AI -Agenten sind bereit, das Marketing zu revolutionieren und möglicherweise die Auswirkungen früherer technologischer Verschiebungen zu übertreffen. Diese Agenten, die einen signifikanten Fortschritt in der generativen KI darstellen, verarbeiten nicht nur Informationen wie Chatgpt, sondern auch Actio

Wie die Computer -Vision -Technologie NBA Playoff amtiertWie die Computer -Vision -Technologie NBA Playoff amtiertMay 01, 2025 am 11:14 AM

Die Auswirkungen der KI auf wichtige Entscheidungen von NBA Game 4 Zwei entscheidende NBA-Matchups in Game 4 zeigten die bahnbrechende Rolle der KI beim Amtieren. Im ersten Fall führte Denvers verpasste Drei-Zeiger von Nikola Jokic zu einer Gasse in der letzten Sekunden von Aaron Gordon. Sony's Haw

Wie KI die Zukunft der regenerativen Medizin beschleunigtWie KI die Zukunft der regenerativen Medizin beschleunigtMay 01, 2025 am 11:13 AM

Traditionell forderte die weltweit expandierende Expertin der regenerativen Medizin umfangreiche Reisen, praktische Ausbildung und jahrelange Mentoring. Jetzt verändert AI diese Landschaft, überwindet geografische Einschränkungen und beschleunigte Fortschritte durch EN

Key Takeaways von Intel Foundry Direct Connect 2025Key Takeaways von Intel Foundry Direct Connect 2025May 01, 2025 am 11:12 AM

Intel arbeitet daran, seinen Herstellungsprozess in die führende Position zurückzugeben, während er versucht, Fab -Semiconductor -Kunden anzuziehen, um Chips an seinen Fabriken herzustellen. Zu diesem Zweck muss Intel mehr Vertrauen in die Branche aufbauen, um nicht nur die Wettbewerbsfähigkeit seiner Prozesse zu beweisen, sondern auch zu demonstrieren, dass Partner Chips in einer vertrauten und ausgereiften Workflow, konsistente und sehr zuverlässige Weise herstellen können. Alles, was ich heute höre, lässt mich glauben, dass Intel dieses Ziel zu diesem Ziel bewegt. Die Keynote -Rede des neuen CEO Tan Libai begann den Tag. Tan Libai ist unkompliziert und prägnant. Er skizziert mehrere Herausforderungen in den Foundry -Diensten von Intel und die Maßnahmen, die Unternehmen ergriffen haben, um diese Herausforderungen zu bewältigen und einen erfolgreichen Weg für Intel Foundry Services in Zukunft zu planen. Tan Libai sprach über den Prozess des OEM -Dienstes von Intel, um Kunden mehr zu machen

Ai schief gegangen? Jetzt ist dafür eine Versicherung dafürAi schief gegangen? Jetzt ist dafür eine Versicherung dafürMay 01, 2025 am 11:11 AM

Die Chaucer Group, ein globales Spezialversicherungsunternehmen, und Armilla AI haben sich mit den wachsenden Bedenken hinsichtlich der KI-Risiken befassen, und Armilla AI haben sich zusammengeschlossen, um ein neuartiges Versicherungsprodukt von Drittanbietern (TPL) einzubringen. Diese Richtlinie schützt Unternehmen vor

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

MantisBT

MantisBT

Mantis ist ein einfach zu implementierendes webbasiertes Tool zur Fehlerverfolgung, das die Fehlerverfolgung von Produkten unterstützen soll. Es erfordert PHP, MySQL und einen Webserver. Schauen Sie sich unsere Demo- und Hosting-Services an.

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

SublimeText3 Linux neue Version

SublimeText3 Linux neue Version

SublimeText3 Linux neueste Version

SecLists

SecLists

SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.