
手把手教你Windows本地部署DeepSeek大模型(附多版本配置指南)
硅基流动邀请【 nK76L7kR 】 注册你我各得14元token。:《DeepSeek模型微调实战:用自定义数据集打造专属AI助手》邀请码【 nK76L7kR 】
·
如果觉得部署麻烦,也可以使用硅基流动里满血版deepseek。现在注册送2000万tokens
官网点击下方链接
点击这里 注册 https://cloud.siliconflow.cn/i/nK76L7kR
邀请码 【 nK76L7kR 】
一、环境准备
1. 系统要求
- 操作系统:Windows 10/11(64位)
- 硬件建议:
- 基础版:1.5B模型需1.1GB存储 + 4GB内存
- 高性能版:7B模型需4.7GB存储 + 8GB内存
- 旗舰版:671B模型需404GB存储 + 128GB内存(需专业级设备)
2. 工具下载
- Ollama安装包:
官网下载地址 → 选择Windows版本(约200MB)
二、安装部署全流程
步骤1:安装Ollama
- 双击下载的
Ollama-Windows.zip
解压安装 - 默认安装路径为
C:\Program Files\Ollama
(需确保C盘有5GB+剩余空间)3
步骤2:部署DeepSeek模型
在管理员权限的PowerShell中执行以下命令(根据硬件选择版本):
# 基础版(低配设备首选)
ollama run deepseek-r1:1.5b
# 性能均衡版(推荐配置)
ollama run deepseek-r1:7b
# 高阶推理版(需高性能GPU)
ollama run deepseek-r1:70b
下载进度显示示例:
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████▏ 1.1 GB
verifying sha256 digest → 校验完成后显示success即部署成功
三、模型交互指南
方法1:命令行直接对话
部署完成后,在PowerShell输入框:
>>> 你好,能帮我写一段Python排序代码吗?
方法2:图形化界面(Chatbox)
- 下载Chatbox客户端
- 配置连接:
- API类型选择Ollama
- 模型列表自动加载已安装的
deepseek-r1:x.xb
版本
- 启用离线模式:关闭网络后仍可正常对话
四、常见问题解答
Q1:如何查看已安装的模型?
ollama list
Q2:如何切换模型版本?
ollama run deepseek-r1:[版本号] # 如ollama run deepseek-r1:14b
Q3:模型响应速度慢怎么办?
- 检查任务管理器,确保Ollama进程获得足够CPU/内存资源
- 小型模型(1.5B)响应速度通常快于70B版本10倍以上
五、效果实测
在i5-6600T+8GB内存设备上测试7B模型:
用户:解释量子计算中的超导量子比特
DeepSeek-R1:
超导量子比特利用约瑟夫森结的非线性电感特性...
(响应时间<3秒,CPU占用率90%+)
硅基流动邀请 【 nK76L7kR 】 注册你我各得14元token
👉 下期预告:《DeepSeek模型微调实战:用自定义数据集打造专属AI助手》
更多推荐
所有评论(0)