Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Verwendung einer suchverstärkten Generierungstechnologie zur Lösung des Halluzinationsproblems künstlicher Intelligenz

Verwendung einer suchverstärkten Generierungstechnologie zur Lösung des Halluzinationsproblems künstlicher Intelligenz

WBOY
WBOYnach vorne
2023-10-27 11:13:021065Durchsuche

Autor|. Rahul Pradhan

Quelle|

Künstliche Intelligenz wird voraussichtlich die einflussreichste Technologie unserer Zeit werden. Jüngste Fortschritte in der Transformer-Technologie und der generativen künstlichen Intelligenz haben ihr Potenzial gezeigt, Innovation und Einfallsreichtum in großem Maßstab freizusetzen.

Generative KI ist jedoch nicht ohne Herausforderungen – Herausforderungen, die die Anwendung und Wertschöpfung dieser transformativen Technologie sogar erheblich behindern können. Da generative KI-Modelle immer komplexer und leistungsfähiger werden, stellen sie auch einzigartige Herausforderungen dar, einschließlich der Generierung von Ausgaben, die nicht auf den Eingabedaten basieren.

Diese sogenannten „Illusionen“ beziehen sich auf die vom Modell erzeugten Ausgaben Die Ergebnisse sind zwar kohärent, können jedoch von den Fakten oder dem Eingabekontext getrennt sein. In diesem Artikel werden die transformativen Auswirkungen der generativen künstlichen Intelligenz kurz vorgestellt, die Mängel und Herausforderungen der Technologie untersucht und Techniken diskutiert, die zur Linderung von Halluzinationen eingesetzt werden können.

Die transformative Wirkung generativer KI

Umformuliert als: Generative KI-Modelle nutzen den komplexen Rechenprozess des Deep Learning, um Muster in großen Datensätzen zu identifizieren und diese Informationen zu nutzen, um neue, überzeugende Ergebnisse zu erstellen. Diese Modelle nutzen neuronale Netze in der maschinellen Lerntechnologie, die von der Art und Weise inspiriert sind, wie das menschliche Gehirn Informationen verarbeitet und interpretiert, und lernen und verbessern sich im Laufe der Zeit weiter

OpenAIs GPT-4 und Googles PaLM 2 usw. Generative KI-Modelle versprechen Innovationen in den Bereichen Automatisierung, Datenanalyse und Benutzererfahrung. Diese Modelle können Code schreiben, Artikel zusammenfassen und sogar bei der Diagnose von Krankheiten helfen. Die Machbarkeit und der endgültige Wert dieser Modelle hängen jedoch von ihrer Genauigkeit und Zuverlässigkeit ab. In kritischen Bereichen wie dem Gesundheitswesen, Finanz- oder Rechtsdienstleistungen ist die Zuverlässigkeit der Genauigkeit von entscheidender Bedeutung. Damit jedoch alle Benutzer das volle Potenzial generativer KI ausschöpfen können, müssen diese Herausforderungen angegangen werden.

Nachteile großer Sprachmodelle

LLMs sind grundsätzlich probabilistisch und nicht deterministisch. Sie generieren Text basierend auf der Wahrscheinlichkeit, dass eine bestimmte Wortfolge als nächstes auftritt. LLM hat keine Vorstellung von Wissen und verlässt sich vollständig auf die Navigation durch einen Korpus trainierter Daten als Empfehlungsmaschine. Der von ihnen generierte Text folgt im Allgemeinen grammatikalischen und semantischen Regeln, basiert jedoch vollständig auf statistischer Konsistenz mit der Eingabeaufforderung.

Diese probabilistische Natur des LLM ist sowohl ein Vorteil als auch ein Nachteil. Wenn das Ziel darin besteht, zur richtigen Antwort zu gelangen oder auf der Grundlage der Antwort eine kritische Entscheidung zu treffen, dann ist Halluzination schlimm und kann sogar Schaden anrichten. Wenn das Ziel jedoch ein kreatives Unterfangen ist, kann die künstlerische Kreativität mit dem LLM gefördert werden, was dazu führt, dass relativ schnell Kunstwerke, Handlungsstränge und Drehbücher entstehen.

Das Misstrauen gegenüber den Ergebnissen eines LLM-Modells kann jedoch unabhängig vom Ziel schwerwiegende Folgen haben. Dies würde nicht nur das Vertrauen in die Fähigkeiten dieser Systeme untergraben, sondern auch den Einfluss von KI auf die Beschleunigung menschlicher Produktivität und Innovation erheblich verringern.

Letztendlich ist KI nur so gut wie die Daten, auf denen sie trainiert wird. Die Illusion von LLM wird hauptsächlich durch Fehler im Datensatz und im Training verursacht, einschließlich der folgenden Aspekte :

  • Überanpassung: Wenn das Modell zu gut auf den Trainingsdaten lernt (einschließlich Rauschen und Ausreißer) Wann kommt es zu einer Überanpassung? Modellkomplexität, verrauschte Trainingsdaten oder unzureichende Trainingsdaten können zu einer Überanpassung führen. Dies führt zu einer minderwertigen Mustererkennung, bei der sich das Modell nicht gut auf neue Daten verallgemeinern lässt, was zu Klassifizierungs- und Vorhersagefehlern, sachlich falschen Ausgaben, Ausgaben mit niedrigem Signal-Rausch-Verhältnis oder regelrechten Halluzinationen führt.
  • Datenqualität: Eine falsche Kennzeichnung und Klassifizierung der für das Training verwendeten Daten kann bei Halluzinationen eine wichtige Rolle spielen. Verzerrte Daten oder ein Mangel an relevanten Daten können tatsächlich zu einer Modellausgabe führen, die korrekt erscheint, sich jedoch je nach dem Umfang der vom Modell empfohlenen Entscheidungen als schädlich erweisen könnte.
  • Datenknappheit: Datenknappheit oder der Bedarf an frischen oder relevanten Daten ist eines der wichtigen Probleme, die Illusionen hervorrufen und Unternehmen daran hindern, generative KI einzuführen. Das Aktualisieren von Daten mit den neuesten Inhalten und Kontextdaten trägt dazu bei, Illusionen und Voreingenommenheit zu reduzieren.
Bekämpfung von Halluzinationen in großen Sprachmodellen

Es gibt verschiedene Möglichkeiten, Halluzinationen in LLMs zu bekämpfen, einschließlich Techniken wie Feinabstimmung, Hint Engineering und Retrieval-Augmented Generation (RAG).

  • Feinabstimmung bezieht sich auf die Neuschulung eines Modells mithilfe eines domänenspezifischen Datensatzes, um für diese Domäne relevante Inhalte genauer zu generieren. Das erneute Trainieren oder Feintuning des Modells nimmt jedoch viel Zeit in Anspruch und außerdem veralten die Daten ohne kontinuierliches Training schnell. Darüber hinaus bringt die Umschulung des Modells auch eine enorme Kostenbelastung mit sich.
  • Hint Engineering zielt darauf ab, LLM dabei zu helfen, qualitativ hochwertige Ergebnisse zu erzielen, indem es beschreibendere und anschaulichere Funktionen als Hinweise in der Eingabe bereitstellt. Wenn Sie dem Modell zusätzlichen Kontext geben und es auf Fakten stützen, verringert sich die Wahrscheinlichkeit, dass das Modell halluziniert.
  • Retrieval Augmented Generation (RAG) ist ein Framework, das sich darauf konzentriert, die Grundlage für LLM mit den genauesten und aktuellsten Informationen zu schaffen. Die Reaktionsfähigkeit von LLM kann verbessert werden, indem das Modell in Echtzeit mit Fakten aus externen Wissensdatenbanken gefüttert wird.
Retrieval-Augmented Generation und Echtzeitdaten

Retrieval-Augmented Generation ist eine der vielversprechendsten Techniken zur Verbesserung der Genauigkeit großer Sprachmodelle. Es stellt sich heraus, dass RAG in Kombination mit Echtzeitdaten Halluzinationen deutlich reduzieren kann.

RAG ermöglicht es Unternehmen, LLM zu nutzen, indem sie die neuesten proprietären und kontextbezogenen Daten nutzen. Darüber hinaus kann RAG den Eingabeinhalt auch mit spezifischen Kontextinformationen anreichern und so dem Sprachmodell dabei helfen, genauere und kontextbezogene Antworten zu generieren. In Unternehmensumgebungen ist eine Feinabstimmung oft unpraktisch, aber RAG bietet eine kostengünstige, ertragreiche Alternative für die Bereitstellung einer personalisierten, informierten Benutzererfahrung

Um das RAG-Modell zu verbessern, ist eine Kombination aus Effizienzgründen erforderlich RAG mit einem Betriebsdatenspeicher, der in der Lage ist, Daten in der Muttersprache von LLMs zu speichern, nämlich hochdimensionale mathematische Vektoren, sogenannte Einbettungen, die die Bedeutung des Textes kodieren. Wenn ein Benutzer eine Anfrage stellt, wandelt die Datenbank diese in einen numerischen Vektor um. Auf diese Weise können verwandte Texte über die Vektordatenbank abgefragt werden, unabhängig davon, ob sie dieselben Begriffe enthalten oder nicht.

Eine hochverfügbare, leistungsstarke Datenbank, die mithilfe der semantischen Suche große Mengen unstrukturierter Daten speichern und abfragen kann, ist eine Schlüsselkomponente des RAG-Prozesses.

Das obige ist der detaillierte Inhalt vonVerwendung einer suchverstärkten Generierungstechnologie zur Lösung des Halluzinationsproblems künstlicher Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen