本地成功部署 deepseek-r1 记录

在进行项目实训的过程中,我需要开发一个团队代码管理器,为了实现一些功能需求,今天成功在本地部署了 deepseek-r1 模型。以下是详细的部署步骤和相关记录,希望能对有同样需求的小伙伴有所帮助。

一、ROCm 环境配置

ROCm 环境是部署 deepseek-r1 模型的重要基础,以下是具体的配置步骤:

  1. 参考文档

  2. 下载 HIP SDK

    安装界面

二、ollama 安装和配置

  1. 下载和安装 ollama
    首先下载 ollama 软件,然后按照安装向导的提示完成安装过程。安装过程中注意选择合适的安装路径和相关配置选项。
    官网安装网址:https://ollama.com/download
    (Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。Ollama本身没有前端,所以安装之后点击图标无法显示出一个应用界面是正常的)

    在这里插入图片描述

  2. 模型下载
    打开 ollama 软件后(https://ollama.com/library/deepseek-r1),点击“models”选项,在模型列表中选择 deepseek-R1 模型。由于我们先进行测试,所以选择最小的 1.5b 模型。复制该模型的安装命令,以便后续使用。
    ​​​​在这里插入图片描述

三、本地部署运行

  1. 打开 cmd 执行命令
    打开命令提示符(cmd)窗口,粘贴之前复制的 deepseek-R1 模型 1.5b 的安装命令,然后执行。等待命令执行完成,期间可能会有下载和安装的过程,耐心等待。安装完成后,执行 run 命令启动模型。
    在这里插入图片描述

四、本地使用验证

使用 1.5b 的模型进行测试,验证模型是否能够正常运行和响应。可以输入一些简单的指令或问题,观察模型的输出结果是否符合预期。如果出现错误,根据错误提示信息进行排查和解决。
在这里插入图片描述

五、客户端配置

为了更方便地使用模型,我们可以选择一个有 UI 的客户端。这里推荐使用https://chatboxai.app/zh

  1. 下载安装客户端
    前往上述链接,下载客户端软件并按照安装向导进行安装。

  2. 配置模型
    安装完成后,打开客户端软件,找到模型配置选项,选择我们之前安装的 deepseek-R1 1.5b 模型。配置完成后,就可以通过客户端方便地与模型进行交互了。
    在这里插入图片描述
    (注意:这里选择的是OLLAMA API,而不是Deepseek API)
    在这里插入图片描述

通过以上步骤,我成功在本地部署了 deepseek-r1 模型,并进行了初步的使用验证和客户端配置。在部署过程中,可能会遇到各种问题,需要耐心地根据文档和错误提示进行排查和解决。希望这篇记录能对大家有所帮助,后续我还会继续探索该模型在团队代码管理器项目中的应用。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐