前言

DeepSeek 作为国产开源大模型,近期因在线服务压力过大,本地部署需求激增。本教程将结合全网优质资源,手把手教你完成从环境配置到交互界面搭建的全流程,即使是零基础用户也能轻松掌握。


为什么要部署本地 DeepSeek?

在本地部署 DeepSeek 有以下几个优势:

  1. 隐私性高:数据都在本地运行,无需上传到云端,避免数据泄露风险。
  2. 稳定性强:不受网络波动影响,模型运行更加稳定。
  3. 可定制性强:可以根据需求调整模型参数,满足个性化需求。

一、部署前准备

1.1 硬件要求
硬件类型最低配置推荐配置
显卡NVIDIA GTX 1060 (6GB显存)RTX 4080 (16GB显存)
内存16GB32GB
存储50GB可用空间SSD固态硬盘
系统Windows 10 / macOS 12 / Ubuntu 20.04Windows 11

📌 注意事项:

  • AMD 显卡用户需安装 25.1.1 版本驱动并配合 LM Studio 使用

二、核心部署流程

2.1 安装 Ollama 框架
2.1.1 下载安装包

访问 Ollama官网 → 选择对应系统版本下载(Windows用户建议安装到C盘)下载 ollama 安装包
下载完成后双击运行安装包,下一步下一步即可。

2.1.2 验证是否安装成功

win+R键打开 cmd命令行,执行命令:

ollama -v
# 输出类似:ollama version is 0.5.7

 
 
  • 1
  • 2

如果显示 Ollama版本号,说明安装成功。

2.2 选择 deepseek 大模型版本

ollama 安装成功以后,在官网搜索 deepseek,选择 deepseek-r1,如图所示:
deepseek-r1
DeepSeek 不同参数版本介绍:

模型参数规模典型用途CPU 建议GPU 建议内存建议 (RAM)磁盘空间建议适用场景
1.5b (15亿)小型推理、轻量级任务4核以上 (Intel i5 / AMD Ryzen 5)可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存)8GB10GB 以上 SSD小型 NLP 任务、文本生成、简单分类
7b (70亿)中等推理、通用任务6核以上 (Intel i7 / AMD Ryzen 7)中端 GPU (如 NVIDIA RTX 3060, 12GB 显存)16GB20GB 以上 SSD中等规模 NLP、对话系统、文本分析
14b (140亿)中大型推理、复杂任务8核以上 (Intel i9 / AMD Ryzen 9)高端 GPU (如 NVIDIA RTX 3090, 24GB 显存)32GB50GB 以上 SSD复杂 NLP、多轮对话、知识问答
32b (320亿)大型推理、高性能任务12核以上 (Intel Xeon / AMD Threadripper)高性能 GPU (如 NVIDIA A100, 40GB 显存)64GB100GB 以上 SSD大规模 NLP、多模态任务、研究用途
70b (700亿)超大规模推理、研究任务16核以上 (服务器级 CPU)多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存)128GB200GB 以上 SSD超大规模模型、研究、企业级应用
671b (6710亿)超大规模训练、企业级任务服务器级 CPU (如 AMD EPYC / Intel Xeon)多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存)256GB 或更高1TB 以上 NVMe SSD超大规模训练、企业级 AI 平台

根据你本地电脑的配置选择合适的参数,例如我们选择 7b这个参数,运行代码如下:

ollama run deepseek-r1:7b

 
 
  • 1

等待下载完毕,下载完成后就可以愉快的在本地使用大模型了,如图所示:

在这里插入图片描述

2.3 常用AI客户端工具

使用命令行进行对话很不方便,可以使用一些 UI 工具来更方便的和 deepseek 进行交互。常用的工具有:

工具描述
Chatbox一个支持多种流行LLM模型的桌面客户端,可在 Windows、Mac 和 Linux 上使用
Cherry Studio一款为创造者而生的桌面版 AI 助手
AnythingLLM一款全方位AI应用程序。与您的文档聊天,使用AI代理,高度可配置,多用户,无需繁琐的设置。

或者你可以探索更多更好用的工具,适合自己使用习惯就行。

2.4 ChatBox 使用示例

这里我们使用 ChatBox 调用 DeepSeek 进行交互,其他工具使用方式类似。

ChatBox 官网地址:https://chatboxai.app/zh

下载自己操作系统的安装包,进行安装。

安装完 Chatbox 之后就是配置 DeepSeek 到 Chatbox 了,如下界面所示:

在这里插入图片描述
配置 AI 模型提供方,这里选择 Ollama,如图:

在这里插入图片描述

选择 deepseek 模型

在这里插入图片描述

配置完成以后就可以在界面上和本地 deepseek 模型进行聊天交互了,如图:

在这里插入图片描述

三、最后

至此,已完成了 DeepSeek-R1 的本地部署,小白也能轻松搞定,快来试试吧,开启你的本地大模型之旅!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐