首页 >科技周边 >人工智能 >使用DeepSeek R1构建RQA系统并简化

使用DeepSeek R1构建RQA系统并简化

Christopher Nolan
Christopher Nolan原创
2025-03-07 10:43:10732浏览

> DeepSeek R1:通过基于检索的问题回答

的AI应用 开创性的开源推理模型

DeepSeek R1正在迅速获得其在构建AI应用方面的效率和准确性的吸引力。 本文详细介绍了使用DeepSeek R1,Langchain和简化的基于检索的问答(RQA)系统的构建。 我们将在实际推理任务中探索其功能,并在实际应用中展示其功能。

键学习成果:

  • 掌握由DeepSeek R1驱动的RQA系统的增强的推理和解决问题的能力。
  • >了解AI驱动的问答的DeepSeek R1的架构和功能。
  • 学会将DeepSeek R1集成到基于检索的问题解答系统中。
  • 请参阅增强学习如何提高DeepSeek R1响应的准确性。
  • >分析现实世界DeepSeek R1在编码,数学和逻辑推理中的应用。
  • (本文是数据科学博客马拉松的一部分。) 目录的
  • 表:

了解DeepSeek R1

> DeepSeek R1-Zero和R1培训

> DeepSeek R1的四个训练阶段

> DeepSeek R1的关键功能
    DeepSeek R1
  • 的本地部署
  • >用DeepSeek R1
  • 构建RQA系统
  • 常见问题
  • >理解DeepSeek R1
  • 在AI的动态领域,开源基础模型正在改变企业AI的开发。 由中国人工智能公司DeepSeek开发的DeepSeek R1是一种开源推理模型,旨在在需要逻辑推理,数学解决问题和实时决策的任务上表现出色。 从一般推理到代码生成的各种应用程序,它的效率和性能延伸。>
  • deepSeek r1-Zero和R1训练
  • >
>许多大型语言模型(LLMS)遵循三阶段的培训过程(预训练,监督微调和强化学习),但DeepSeek R1-Zero采用了另一种方法。 它利用了预先训练的DeepSeek-V3基本模型(6710亿参数)和跳过监督的微调,直接利用称为组相对策略优化(GRPO)的大规模增强学习技术。

基于近端策略优化(PPO)的

> DeepSeek R1的四个训练阶段

> DeepSeek R1建立在DeepSeek R1-Zero的基础之上,并结合了四个关键培训阶段:

  1. 冷启动:在DeepSeek R1-Zero数据的高质量子集上进行微调以增强可读性。
  2. 推理强化学习:通过跨编码,数学,科学和逻辑领域的大规模强化学习来增强推理技能。
  3. 拒绝采样和监督微调:生成多个样本,仅通过拒绝采样保留正确且可读的样本,然后再通过生成奖励模型进行进一步的微调。>
  4. >多样化的强化学习:利用基于规则的奖励来完成数学和语言模型反馈以与人类偏好保持一致。
  5. >
> deepSeek r1的密钥特征

>

    >开源(MIT许可证):>促进检查,修改和集成到各种项目中。 在GitHub和Azure AI Foundry等平台上可用。
  • 高性能:
  • 可与各种基准(数学,代码生成,复杂推理)上的OpenAI的GPT-4媲 专家(MOE)体系结构的混合物
  • > 67.1亿个参数模型仅激活每个正向参数370亿个参数,优化效率。
  • 蒸馏型:提供较小,更可部署的型号(例如,DeepSeek-R1-Distill-Qwen-32b,Qwen-1.5b,7b,7b,14b)。>
  • DeepSeek r1
  • >
  • 本地部署
>使用Ollama很简单:

>安装Ollama。

在您的终端中运行以下命令(可以选择模型大小):>

  1. >
构建使用DeepSeek R1
ollama run deepseek-r1   # Default 7B model
ollama run deepseek-r1:1.5b # Specific model

的RQA系统 Building a RQA System with DeepSeek R1 and Streamlit让我们使用langchain和deepseek r1构建一个RQA系统:

>

步骤1:导入库>

(步骤2-10:构建简易应用程序的其余步骤,包括文件上传,嵌入创建,矢量存储生成,检索器设置,LLM定义,提示模板创建,QA链创建,UI定义和UI实现,与原始响应相同。请参阅原始响应。

>

输出示例:

(用示例查询和响应说明了应用程序的功能。)>

import streamlit as st
from langchain_community.document_loaders.csv_loader import CSVLoader
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.vectorstores import FAISS
from langchain_community.llms import Ollama
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.chains.combine_documents.stuff import create_stuff_documents_chain
from langchain.chains import RetrievalQA

结论

DeepSeek R1代表了AI推理模型的重大进步。它的复杂技术和开源可访问性的结合使其成为开发人员的强大工具。 RQA系统示例展示了其实际应用和未来创新的潜力。

钥匙要点:

    DeepSeek R1是一种高性能的开源推理模型。
  • RQA系统利用DeepSeek R1的功能来回答。
  • > DeepSeek R1的训练增强了解释性和准确性。
  • MOE体系结构优化了资源利用率。
参考:

> grpo

    > ai论文学院
  • >常见问题:

(常见问题解答部分与原始响应保持相同。)

以上是使用DeepSeek R1构建RQA系统并简化的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn