Heim >Technologie-Peripheriegeräte >KI >Deepseek-R1 Rag Chatbot mit Chroma, Ollama und Gradio

Deepseek-R1 Rag Chatbot mit Chroma, Ollama und Gradio

Joseph Gordon-Levitt
Joseph Gordon-LevittOriginal
2025-02-28 16:36:11785Durchsuche

Dieses Tutorial zeigt, dass ein Chatbot (Abruf Augmented Generation) mit Deepseek-R1 und Langchain aufgebaut wird. Der Chatbot beantwortet Fragen auf der Grundlage einer Wissensbasis, in diesem Fall ein Buch über die Grundlagen von LLMs. Der Prozess nutzt die effiziente Vektorsuche von Deepseek-R1 nach genauen und kontextbezogenen Antworten, die über eine benutzerfreundliche Gradio-Schnittstelle geliefert werden.

Die Stärken von Deepseek-R1, einschließlich Hochleistungs-Abruf, feinkörniger Relevanzranking, Kosteneffizienz (aufgrund der lokalen Ausführung), einfacher Integration in Chroma und Offline-Funktionen, machen Sie es ideal für diese Anwendung.

Das Tutorial ist in klare Schritte unterteilt:

1. Voraussetzungen: Sicherstellen, dass die erforderlichen Bibliotheken (Langchain, Chromadb, Gradio, Ollama, Pymupdf) installiert sind.

2. Laden des PDF: Verwenden Sie Pymupdfloader aus Langchain, um Text aus den "Foundations of LLMs" PDF zu extrahieren.

3. Text -Chunking: Aufteilen des extrahierten Textes in kleinere, überlappende Stücke mit RecursiveCharacterTextSplitter für eine verbesserte Kontextabnahme.

4. Einbettung der Erzeugung: Erzeugen von Einbettungen für jeden Chunk mit Ollamaembeding mit Deepseek-R1. Die Parallelisierung über ThreadPoolExecutor beschleunigt diesen Prozess. Hinweis: In der Tutorial wird die Möglichkeit erwähnt, verschiedene Deepseek-R1-Modellgrößen (7b, 8b, 14b usw.) anzugeben.

5. Speichern von Einbettungen in Chroma: Speichern der Einbettungen und entsprechenden Textbrocken in einer Chroma -Vektor -Datenbank zum effizienten Abrufen. Das Tutorial zeigt, dass die Sammlung erstellt und/oder löscht, um Konflikte zu verhindern.

6. Retriever-Initialisierung: Einrichten des Chroma Retriever unter Verwendung von Deepseek-R1-Einbettungen für die Abfrageverarbeitung.

7. RAG -Pipeline (Kontextabnahme): Eine Funktion retrieve_context ruft relevante Textbrocken basierend auf der Frage eines Benutzers ab.

8. Abfragen von Deepseek-R1: Die Funktion query_deepseek formatiert die Frage des Benutzers und den abgerufenen Kontext, sendet sie über Ollama an Deepseek-R1 und reinigt die Antwort für die Präsentation.

9. Gradio -Schnittstelle: Erstellen einer interaktiven Schnittstelle mit Gradio, sodass Benutzer Fragen eingeben und Antworten aus der RAG -Pipeline erhalten.

DeepSeek-R1 RAG Chatbot With Chroma, Ollama, and Gradio

Optimierungen: Das Tutorial schlägt mehrere Optimierungen vor, einschließlich der Anpassung der Chunk-Größe, der Verwendung kleinerer Deepseek-R1-Modelle, der Integration von FAISS für größere Datensätze und der Batch-Verarbeitung für die Einbettungserzeugung.

DeepSeek-R1 RAG Chatbot With Chroma, Ollama, and Gradio

Schlussfolgerung: Das Tutorial zeigt erfolgreich, einen funktionalen lokalen Lag-Chatbot zu erstellen, der die Kraft von Deepseek-R1 für ein effizientes und genaues Informationsabruf zeigt. Links zu weiteren Deepseek -Ressourcen werden bereitgestellt.

Das obige ist der detaillierte Inhalt vonDeepseek-R1 Rag Chatbot mit Chroma, Ollama und Gradio. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn