Maison >Périphériques technologiques >IA >Chatbot de chiffon Deepseek-R1 avec Chroma, Olllama et Gradio

Chatbot de chiffon Deepseek-R1 avec Chroma, Olllama et Gradio

Joseph Gordon-Levitt
Joseph Gordon-Levittoriginal
2025-02-28 16:36:11785parcourir

Ce tutoriel montre la construction d'un chatbot de génération augmentée (RAG) de récupération à l'aide de Deepseek-R1 et Langchain. Le chatbot répond aux questions basées sur une base de connaissances, dans ce cas, un livre sur les fondements de LLMS. Le processus exploite la recherche de vecteurs efficaces de Deepseek-R1 pour des réponses précises et contextuellement pertinentes, livrées via une interface Gradio conviviale.

Les forces de Deepseek-R1, y compris la récupération haute performance, le classement de pertinence à grains fins, la rentabilité (en raison de l'exécution locale), l'intégration facile avec le chroma et les capacités hors ligne, le rendent idéal pour cette application.

Le tutoriel est divisé en étapes claires:

1. Prérequis: Assurer que les bibliothèques nécessaires (Langchain, Chromadb, Gradio, Ollama, PYMUPDF) sont installées.

2. Chargement du pdf: en utilisant pyMupdfloader de Langchain pour extraire le texte des "fondations de LLMS" PDF.

3. Chunking de texte: Fractionnement du texte extrait en morceaux plus petits et chevauchants en utilisant RecursiveCharacterTextSplitter pour améliorer la récupération de contexte.

4. Génération d'intégration: Génération d'incorporation pour chaque morceau à l'aide d'Ollamaembedddings avec Deepseek-R1. La parallélisation via ThreadPoolExecutor accélère ce processus. Remarque: Le tutoriel mentionne la possibilité de spécifier différentes tailles de modèle Deepseek-R1 (7b, 8b, 14b, etc.).

5. Stockage des intérêts dans le chroma: Stockage des intérêts et des morceaux de texte correspondants dans une base de données vectorielle de chroma pour une récupération efficace. Le tutoriel met en évidence la création et / ou la suppression de la collection pour éviter les conflits.

6. Retriever Initialisation: Configuration du chroma Retriever, en utilisant des intégres Deepseek-R1 pour le traitement des requêtes.

7. Pipeline de chiffon (Récupération de contexte): Une fonction retrieve_context récupère des morceaux de texte pertinents en fonction de la question d'un utilisateur.

8. Interroger Deepseek-R1: La fonction query_deepseek Formats la question de l'utilisateur et le contexte récupéré, l'envoie à Deepseek-R1 via Olllama et nettoie la réponse de la présentation.

9. Interface Gradio: Création d'une interface interactive à l'aide de Gradio, permettant aux utilisateurs de saisir des questions et de recevoir des réponses du pipeline de chiffon.

DeepSeek-R1 RAG Chatbot With Chroma, Ollama, and Gradio

Optimisations: Le tutoriel suggère plusieurs optimisations, notamment en ajustant la taille du morceau, en utilisant des modèles Deepseek-R1 plus petits, l'intégration de FAIS pour les ensembles de données plus grands et le traitement par lots pour la génération d'intégration.

DeepSeek-R1 RAG Chatbot With Chroma, Ollama, and Gradio

Conclusion: Le tutoriel démontre avec succès la construction d'un chatbot de chiffon local fonctionnel, présentant la puissance de Deepseek-R1 pour une récupération efficace des informations. Des liens vers d'autres ressources en profondeur sont fournis.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn