首页 >科技周边 >人工智能 >如何在5分钟内在本地运行DeepSeek模型?

如何在5分钟内在本地运行DeepSeek模型?

Christopher Nolan
Christopher Nolan原创
2025-03-07 09:59:09639浏览

DeepSeek席卷了AI社区,到目前为止,有68个模型可在拥抱的脸上使用。可以通过拥抱的面孔或Ollama访问这个开源模型家族,而

deepSeek-r1>和 deepSeek-v3可以通过> deepseek chat 直接用于推理。在此博客中,我们将探索DeepSeek的模型阵容,并指导您使用Google Colab和Ollama运行这些模型。 >目录

> deepSeek模型的概述
  • >在Ollama
  • 上运行DeepSeek R1步骤1:安装Ollama
    • 步骤2:deepseek r1 r1
    • DeepSeek-janus-pro-1b在Google Colab
    • >步骤1上:克隆DeepSeek-Janus储存库
    • 步骤2:安装依赖项

步骤3:加载模型并将其移动并将其移动到GPU

步骤4:将图像用于处理图像,以使

  • 概述 DeepSeek提供各种模型,每个模型都针对不同的任务进行了优化。以下是哪种模型最适合您的需求的细分:> 对于开发人员和程序员而言,>
  • > DeepSeek-Coder和DeepSeek-coder-V2模型是为编码任务(例如写作和调试代码)而设计的。> 对于一般用户而言,>>
  • DeepSeek-v3模型是一种多功能选项,能够处理各种查询,从休闲对话到复杂的内容生成。> 对于研究人员和高级用户而言,

DeepSeek-r1 模型专门从事高级推理和逻辑分析,使其非常适合解决问题和研究应用程序。

>>>>> 视觉任务的

>

DeepSeek-Janus家族和DeepSeek-VL模型是针对多模式任务(包括图像生成和处理)量身定制的。

也请阅读:使用DeepSeek-V3
  • 构建AI应用程序 >在Ollama上运行DeepSeek R1 步骤1:安装Ollama
  • >要在本地计算机上运行DeepSeek模型,您需要安装Ollama:
  • >>下载ollama:
>单击此处下载
curl -fsSL https://ollama.com/install.sh | sh

> Linux用户

>在您的终端中运行以下命令:bashcopyedit
ollama pull deepseek-r1:1.5b

步骤2:拉动deepseek r1型

安装了Ollama后,打开命令行界面(CLI)并拉动模型:

ollama pull deepseek-r1:1.5b

pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 

>您可以在Ollama上探索其他可用的DeepSeek模型:Ollama模型搜索。

此步骤可能需要一些时间,因此请等待下载完成。

步骤3:在本地运行模型 >下载模型后,您可以使用命令:运行它。
curl -fsSL https://ollama.com/install.sh | sh

如何在5分钟内在本地运行DeepSeek模型?

该模型现在可以在本地机器上使用,并且正在不用任何打ic来回答我的问题。

>在Google Colab上运行DeepSeek-Janus-Pro-1b 在本节中,我们将使用Google Colab尝试DeepSeek-Janus-Pro-1b。启动之前,请确保将运行时设置为T4 GPU以获得最佳性能。>

步骤1:克隆DeepSeek-Janus存储库

在COLAB笔记本中运行以下命令:

?在GitHub上探索更多的DeepSeek模型:DeepSeek AI GitHub存储库
ollama pull deepseek-r1:1.5b

> 步骤2:安装依赖项>

>导航到克隆目录并安装所需的软件包:>

>

步骤3:加载模型并将其移至GPU

ollama pull deepseek-r1:1.5b

pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>

现在,我们将导入必要的库,然后将模型加载到> cuda(gpu)>:

>

步骤4:通过处理图像

现在,让我们将
ollama run deepseek-r1:1.5b
图像

传递给模型并生成一个响应。

?输入图像

初始化提示和系统角色如何在5分钟内在本地运行DeepSeek模型?

>

处理输入

!git clone https://github.com/deepseek-ai/Janus.git

输出:

%cd Janus
!pip install -e .
!pip install flash-attn

< | user |>:图像中有什么?>

< |助手|>:该图像以“最新文章”为特色,重点是博客文章。博客文章讨论了“如何访问DeepSeek Janus Pro 7b?”并强调了其在推理,文本对图像和指导跟踪中的多模式AI功能。该图像还包括后台的DeepSeek徽标(海豚)和六角形图案。


>

我们可以看到该模型能够读取图像中的文本,并在图像中发现DeepSeek的徽标。最初的印象,表现良好。

>也请阅读:如何访问DeepSeek Janus Pro 7b? 结论

DeepSeek迅速成为AI中的强大力量,为开发人员,研究人员和普通用户提供了广泛的模型。随着它与OpenAI和Gemini等行业巨头竞争,其成本效益和高性能模型可能会广泛采用。 DeepSeek模型的应用是无限的,从编码帮助到高级推理和多模式功能。通过Ollama和基于云的推理选项的无缝本地执行,DeepSeek有望成为AI研发中的游戏规则改变者。

> 如果您有任何疑问或面对问题,请随时在评论部分中询问!

以上是如何在5分钟内在本地运行DeepSeek模型?的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn