最近,深度求索公司推出的 DeepSeek-R1 大语言模型(Large Language Model)引发业界广泛关注。该模型基于 MoE(Mixture of Experts)架构,在 MMLU、GSM8K 等基准测试中展现出卓越的推理能力和多任务处理性能。然而,由于使用人数过多,网页版时常出现服务器繁忙的情况,影响了大家的使用体验。别担心,今天就给大家带来本地私有化部署 DeepSeek R1 的全攻略,让你在自己的设备上畅享这一强大模型。

一、为什么要本地私有化部署

其实对于大部分用户来说,90% 的场景确实不需要本地模型。但如果你的电脑配置不错,且有以下这些情况的话,那么本地化部署的优势就会被充分体现。

  • 数据隐私:本地部署确保数据不离开你的服务器,安全性更高。
  • 定制化需求:可以根据业务需求灵活调整模型参数和功能。
  • 离线使用:再也不用看“服务器繁忙”的脸色。
  • 成本可控:长期使用比云服务更经济,尤其适合高频调用场景。

二、本地私有化部署教程

1. 安装 Ollama

Ollama 是一个大模型管理工具,能够帮助我们轻松地在本地运行和管理大模型。你可以前往 Ollama 官网[ 👉 点我直达]下载适合自己系统的版本,包括 Windows、MacOS 和 Linux。下载完成后,按照提示进行安装即可。

请添加图片描述
请添加图片描述

2. 选择并安装模型

在 Ollama 官网的 “Models” 页面,找到 “DeepSeek-R1” 模型。根据你的电脑配置,选择合适的模型版本。例如,如果你的电脑配置较高,可以选择 32b 或 14b 版本;如果配置相对较低,1.5b 版本也是一个不错的选择。选择好模型后,复制对应的安装指令,如 “ollama run deepseek-r1:32b”,然后在命令行窗口中运行该指令,等待模型下载完成。
请添加图片描述
请添加图片描述

我的 MacBook Pro 有点老配置较低,先拉取个 1.5b 跑跑

请添加图片描述

出现 success 说明 pull 成功

请添加图片描述

3. 安装可视化 UI 界面

浏览器扩展商店搜索 Page Assist 并安装
请添加图片描述

右上角设置界面,RAG 设置里选择下载的模型

请添加图片描述

支持语音和图片

请添加图片描述

三、写在最后

总得来说,通过 Ollama 私有化部署本地大模型非常简单,如果你的电脑配置较高也可以运行参数量较大的模型。在完成本地部署后,能够开展诸多饶有趣味且颇具价值的事。例如,将其集成至 Cursor 之中,如此便能够拥有一款离线且免费的 AI 编程工具;还可以着手开发自动化工具,将其用作私人知识库。而且更关键的是,整个使用过程完全免费,即便处于断网状态也能正常使用。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐