


llm Chatbots: revolutionieren Konversations -KI mit Abruf Augmented Generation (RAG)
Seit dem Start von Chatgpt November 2022 sind Chatbots mit großer Sprachmodell (LLM) allgegenwärtig geworden und transformiert verschiedene Anwendungen. Während das Konzept der Chatbots nicht neu ist - viele ältere Chatbots waren übermäßig komplex und frustrierend -, haben die Plms das Feld wiederbelebt. Dieser Blog untersucht die Leistung von LLMs, die RAG -Technik (Abruf Augmented Generation) und wie Sie Ihren eigenen Chatbot mit OpenAIs GPT -API und Tinecone erstellen.
Diese Anleitung deckt:
- Abruf Augmented Generation (RAG)
- große Sprachmodelle (LLMs)
- unter Verwendung von OpenAI GPT und anderen APIs
- Vektordatenbanken und ihre Notwendigkeit
- Erstellen eines Chatbots mit Pinecone und Openai in Python
Erforschen Sie für einen tieferen Tauchgang unsere Kurse in Vektordatenbanken für Einbettungen mit PineCone und dem Code-Along auf Chatbots mit OpenAI-API und Pinecone
.
große Sprachmodelle (LLMs)
Bildquelle
llms wie GPT-4 sind ausgefeilte Algorithmen für maschinelles Lernen, die tiefes Lernen (insbesondere Transformer-Architektur) verwenden, um menschliche Sprache zu verstehen und zu generieren. Auf massiven Datensätze (Billionen von Wörtern aus verschiedenen Online -Quellen) erledigen sie komplexe Sprachaufgaben.
llms excel bei der Textgenerierung in verschiedenen Stilen und Formaten, vom kreativen Schreiben bis zur technischen Dokumentation. Zu ihren Fähigkeiten zählen Summarisierung, Konversations -KI und Sprachübersetzung, die häufig differenzierte Sprachmerkmale erfassen.
LLMs haben jedoch Einschränkungen. "Halluzinationen" - generierende plausible, aber falsche Informationen - und Verzerrungen aus Trainingsdaten sind erhebliche Herausforderungen. Während LLMs einen großen KI -Fortschritt darstellen, ist das sorgfältige Management von entscheidender Bedeutung, um Risiken zu mildern.
Abruf Augmented Generation (RAG)
Bildquelle
llms 'Einschränkungen (veraltete, generische oder falsche Informationen aufgrund von Datenbeschränkungen oder "Halluzinationen") werden von RAG behandelt. RAG verbessert die Genauigkeit und Vertrauenswürdigkeit, indem sie LLMs anweisen, relevante Informationen aus bestimmten Quellen abzurufen. Dies gibt Entwicklern mehr Kontrolle über LLM -Antworten.
Der Lag -Prozess (vereinfacht)
(Ein detailliertes Lag -Tutorial ist separat erhältlich.)
- Datenvorbereitung: externe Daten (z. B. aktuelle Forschung, Nachrichten) werden vorbereitet und in ein von der LLM verwendete Format (Einbettungen) umgewandelt.
- Einbettungspeicher: Einbettungen werden in einer Vektordatenbank (wie Pinecone) gespeichert, die für ein effizientes Abrufen von Vektordaten optimiert ist.
- Informationsab Abrufen: Eine semantische Suche mit der Abfrage des Benutzers (in einen Vektor konvertiert) ruft die relevantesten Informationen aus der Datenbank ab.
- Einheitliche Augmentation: Abgerufene Daten und die Benutzerabfrage erweitern die LLM -Eingabeaufforderung, was zu genaueren Antworten führt.
- Datenaktualisierungen: externe Daten werden regelmäßig aktualisiert, um die Genauigkeit zu erhalten.
Vektordatenbanken
Bildquelle
Vektordatenbanken verwalten hochdimensionale Vektoren (mathematische Datendarstellungen). Sie zeichnen sich bei Ähnlichkeitssuche auf der Grundlage der Vektorentfernung aus und ermöglichen eine semantische Abfrage. Zu den Anwendungen gehören ähnliche Bilder, Dokumente oder Produkte. PineCone ist ein beliebtes, effizientes und benutzerfreundliches Beispiel. Die fortschrittlichen Indexierungstechniken sind ideal für RAG -Anwendungen.
openai api
Die API von OpenAI bietet Zugriff auf Modelle wie GPT, Dall-E und Whisper. Über HTTP -Anforderungen (oder mit der openai
-Bibliothek von Python vereinfacht) zugänglich und ist leicht in verschiedene Programmiersprachen integriert.
Python Beispiel:
import os os.environ["OPENAI_API_KEY"] = "YOUR_API_KEY" from openai import OpenAI client = OpenAI() completion = client.chat.completions.create( model="gpt-4", messages=[ {"role": "system", "content": "You are expert in Machine Learning."}, {"role": "user", "content": "Explain how does random forest works?."} ] ) print(completion.choices[0].message)
Langchain (Framework -Übersicht)
Langchain vereinfacht die LLM -Anwendungsentwicklung. Obwohl es mächtig ist, steht es immer noch unter aktiver Entwicklung, sodass API -Änderungen möglich sind.
End-to-End-Python-Beispiel: Erstellen eines LLM-Chatbots
Dieser Abschnitt erstellt einen Chatbot mit OpenAI GPT-4 und Tinecone. (Hinweis: Ein Großteil dieses Code ist aus dem offiziellen Tinecone Langchain -Handbuch angepasst.)
1. OpenAI und Tinecone Setup: API -Schlüssel erhalten.
2. Installieren Sie Bibliotheken: Verwenden Sie PIP, um langchain
, langchain-community
, openai
, tiktoken
, pinecone-client
und pinecone-datasets
zu installieren.
3. Beispieldatensatz: Laden Sie einen voreingebetteten Datensatz (z. B. wikipedia-simple-text-embedding-ada-002-100K
von pinecone-datasets
). (Eine Untergruppe abtastet wird für eine schnellere Verarbeitung empfohlen.)
4. Pinecone Index Setup: Erstellen Sie einen Pinecone -Index (langchain-retrieval-augmentation-fast
in diesem Beispiel).
5. Dateninsertion: Verbinden Sie die abgetasteten Daten in den Pinecone -Index.
6. Langchain -Integration: Initialisieren Sie einen Langchain -Vektorspeicher mit dem Pinecone Index und OpenAI -Einbettungen.
7. Abfrage: Verwenden Sie den Vektor Store, um Ähnlichkeitssuche durchzuführen.
8. LLM -Integration: Verwenden Sie ChatOpenAI
und RetrievalQA
(oder RetrievalQAWithSourcesChain
für die Quellzuordnung), um das LLM in den Vektorspeicher zu integrieren.
Schlussfolgerung
Dieser Blog demonstrierte die Kraft von Lappen für den Aufbau zuverlässiger und relevanter LLM-Chatbots. Die Kombination von LLMs, Vector -Datenbanken (wie Pinecone) und Frameworks wie Langchain ermöglicht Entwickler, anspruchsvolle Konversations -KI -Anwendungen zu erstellen. Unsere Kurse bieten weitere Lernmöglichkeiten in diesen Bereichen.
Das obige ist der detaillierte Inhalt vonSo erstellen Sie einen Chatbot mithilfe der OpenAI -API & Pinecone. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

KI -Agenten sind jetzt ein Teil von Enterprises Big und Small. Von Füllformularen in Krankenhäusern und Überprüfung rechtlicher Dokumente bis hin zur Analyse von Videomaterial und Umgang mit Kundenbetreuung haben wir KI -Agenten für alle Arten von Aufgaben. Begleiter

Das Leben ist gut. Auch vorhersehbar - genau die Art und Weise, wie Ihr analytischer Geist ihn bevorzugt. Sie haben heute nur noch in das Büro eingegangen, um einige Papierkram in letzter Minute zu beenden. Gleich danach bringen Sie Ihren Partner und Ihre Kinder für einen wohlverdienten Urlaub nach Sunny H.

Der wissenschaftliche Konsens hat jedoch einen Schluckauf und Gotchas, und vielleicht würde ein umsichtigerer Ansatz über die Verwendung der Konvergenz der Befragung, die auch als Konsilienz bezeichnet werden, bestehen. Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner

Weder Openai noch Studio Ghibli antworteten auf Anfragen nach Kommentaren zu dieser Geschichte. Aber ihr Schweigen spiegelt eine breitere und kompliziertere Spannung in der Kreativwirtschaft wider: Wie sollte das Urheberrecht im Alter der generativen KI funktionieren? Mit Tools wie

Sowohl Beton als auch Software können bei Bedarf für eine robuste Leistung verziert werden. Beide können Stress getestet werden, beide können im Laufe der Zeit an Fissuren und Rissen leiden, beide können untergebracht und in einen „neuen Build“, die Produktion beider Merkmale

Ein Großteil der Berichterstattung stoppt jedoch auf einer sehr Oberflächenebene. Wenn Sie versuchen herauszufinden, worum es bei Windsurf geht, erhalten Sie möglicherweise das, was Sie sich wünschen

Schlüsselfakten Zu den Führungskräften, die den offenen Brief unterschreiben, gehören CEOs hochkarätiger Unternehmen wie Adobe, Accenture, AMD, American Airlines, Blue Origin, Cognizant, Dell, Dropbox, IBM, LinkedIn, Lyft, Microsoft, Salesforce, Uber, Yahoo und Zoom.

Dieses Szenario ist keine spekulative Fiktion mehr. In einem kontrollierten Experiment zeigte die Apollo-Forschung, dass GPT-4 einen illegalen Insider-Trading-Plan ausführte und dann die Ermittler darüber lag. Die Episode ist eine lebendige Erinnerung daran, dass zwei Kurven aufsteigen


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

WebStorm-Mac-Version
Nützliche JavaScript-Entwicklungstools

DVWA
Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software

mPDF
mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor
