目录

一、DeepSeek本地部署【Windows】

1、安装Ollama

2、配置环境变量

3、下载模型

4、使用示例

a、直接访问

b、chatbox网页访问

二、DeepSeek本地部署【Mac】

1、安装Ollama

2、配置环境变量

3、下载模型

4、使用示例

5、删除已下载的模型

三、DeepSeek其他

1、各个蒸馏版本对应硬件配置参考

2、DeepSeek-V3的综合能力

3、DeepSeek-个人知识库


一、DeepSeek本地部署【Windows】

1、安装Ollama

Ollama官网 Ollama

2、配置环境变量

OLLAMA_HOST  0.0.0.0
OLLAMA_ORIGINS *

3、下载模型

4、使用示例

a、直接访问

b、chatbox网页访问

Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载


二、DeepSeek本地部署【Mac】

1、安装Ollama

2、配置环境变量

launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"

还是不成功的请访问chatbox的帮助

直达链接:

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题

3、下载模型

4、使用示例

总的来看,一般电脑比较适合部署14b版本,也算能用,毕竟是蒸馏版本,参数量在这放着呢,虽然是蒸馏版本,但也基本都保留了核心的推理能力。

如果想跑更高版本的,硬件配置很多人吃不消的,个人的建议14b玩玩就行了。

专业可靠的还得是官方的满血版本,硬件配置要求太高了。

有台式机可以搞到128G运存的,可以尝试下32b/70b的版本的。

5、删除已下载的模型

1.进入 cmd 
2.查看已经部署的模型,输入:ollama list
3. 删除指定的模型: ollama rm deepseek -r1:70b

三、DeepSeek其他

1、各个蒸馏版本对应硬件配置参考

模型版本 CPU要求 内存要求 硬盘要求 显卡要求 适用场景
DeepSeek-R1-1.5B 最低4核,推荐Intel/AMD多核处理器 8GB+ 3GB+ 非必需,若需GPU加速,可选4GB+显存(如GTX 1650) 低资源设备部署等场景
DeepSeek-R1-7B 8核以上,推荐现代多核CPU 16GB+ 8GB+ 推荐8GB+显存(如RTX 3070/4060) 本地开发测试等场景
DeepSeek-R1-8B 与7B相近,略高10-20% 与7B相近,略高10-20% 与7B相近,略高10-20% 与7B相近,略高10-20% 需更高精度的轻量级任务
DeepSeek-R1-14B 12核以上 32GB+ 15GB+ 16GB+显存(如RTX 4090或A5000) 企业级复杂任务
DeepSeek-R1-32B 16核以上(如AMD Ryzen 9或Intel i9) 64GB+ 30GB+ 24GB+显存(如A100 40GB或双卡RTX 3090) 高精度专业领域任务
DeepSeek-R1-70B 32核以上服务器级CPU 128GB+ 70GB+ 需多卡并行(如2x A100 80GB或4x RTX 4090) 科研机构等高复杂度生成任务

2、DeepSeek-V3的综合能力

3、DeepSeek-个人知识库


有用请点赞,养成良好习惯!

疑问、交流、鼓励请留言!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐