ホームページ >テクノロジー周辺機器 >AI >Chroma、Ollama、Gradioを備えたDeepseek-R1ラグチャットボット
このチュートリアルでは、DeepSeek-R1とLangchainを使用して検索拡張生成(RAG)チャットボットを構築することを示しています。 チャットボットは、知識ベース、この場合はLLMSの基礎に関する本に基づいて質問に答えます。 このプロセスは、ユーザーフレンドリーなグラデーションインターフェイスを通じて配信される、正確でコンテキストに関連する応答のためにDeepSeek-R1の効率的なベクトル検索を活用します。
高性能検索、微調整された関連ランキング、費用対効果(ローカルの実行による)、クロマとの簡単な統合、およびオフライン機能など、
必要なライブラリ(langchain、chromadb、gradio、ollama、pymupdf)の確保がインストールされています。
2。 PDFのロード:langchainからpymupdfloaderを使用して、「LLMSの基礎」PDFからテキストを抽出します。
3。テキストチャンキング:抽出されたテキストを、改善されたコンテキストの取得のためにを使用して、より小さな、重複するチャンクに分割します。
4。埋め込み生成:deepseek-r1を使用してollamaembeddingsを使用して、各チャンクの埋め込みを生成します。 このプロセスを介した並列化により、このプロセスが高速化されます。 注:チュートリアルでは、さまざまなDeepSeek-R1モデルサイズ(7b、8b、14bなど)を指定する機能について説明します。
5。クロマに埋め込みを保存:RecursiveCharacterTextSplitter
埋め込みと対応するテキストチャンクをChroma Vectorデータベースに保存して、効率的な検索を行います。 チュートリアルは、競合を防ぐためにコレクションを作成および/または削除することを強調しています。
6。レトリーバーの初期化:クエリ処理にdeepseek-r1埋め込みを使用して、クロマレトリバーをセットアップします。>
ThreadPoolExecutor
ユーザーの質問と取得コンテキストをフォーマットし、オラマを介してdeepseek-r1に送信し、プレゼンテーションのための応答をクリーンアップします。 9。グレードインターフェイス:
グレーディオを使用してインタラクティブインターフェイスを作成し、ユーザーが質問を入力してRAGパイプラインから回答を受信できるようにします。
retrieve_context
チュートリアルでは、チャンクサイズの調整、小さいdeepseek-R1モデルの使用、より大きなデータセットのFAISSの統合、埋め込み生成のバッチ処理など、いくつかの最適化を提案しています。
query_deepseek
結論:チュートリアルは、効率的かつ正確な情報検索のためにDeepSeek-R1の力を紹介する機能的なローカルRAGチャットボットの構築を正常に実証しています。 さらなるDeepSeekリソースへのリンクが提供されています
以上がChroma、Ollama、Gradioを備えたDeepseek-R1ラグチャットボットの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。