本地化部署安装DeepSeek模型保姆级教程
1. 下载并安装Ollama
·
1. 下载并安装Ollama
访问官网:打开浏览器,输入网址 Download Ollama on macOS并下载安装
2. 验证安装是否成功
-
打开命令提示符(CMD):
-
按键盘
Win键 + R,输入cmd后按回车
-
-
输入检查命令:
ollama --version
若显示类似 ollama version 0.1.20,说明安装成功;
3. 下载DeepSeek模型
-
输入下载命令:
ollama pull deepseek-r1:[版本号]-
将
[版本号]替换为具体模型大小(如7b、32b)。
-
-
版本选择指南:
模型版本 参数规模 硬盘空间 显卡要求(重要) 内存推荐 适用场景 7b 70亿参数 4.7GB NVIDIA GTX 1060(4GB显存) 8GB+ 日常对话、简单问答 14b 140亿参数 9.0GB NVIDIA RTX 2060(6GB显存) 16GB+ 代码生成、长文本摘要、多轮对话 32b 320亿参数 20GB NVIDIA RTX 3060(8GB显存) 32GB+ 专业需求(推荐) 70b 700亿参数 43GB NVIDIA RTX 3090/4090 64GB+ 高性能场景 170b 1.7万亿参数 404GB 多卡集群(如NVIDIA A100x4) 256GB+ 企业级应用
模型版本越大,AI回答越智能,但对电脑硬件(主要是显卡)要求越高。
4. 启动并使用模型
-
运行命令:
ollama run deepseek-r1:32b
将 32b 替换为你下载的版本号。
-
输入问题:
-
出现
>>> Send a message后,可以使用
-
首次运行需加载模型,耗时可能较长(约1-5分钟)。
5. 安装图形界面(可选)——图形界面让操作更直观钮
-
ChatWise界面安装(适合小白):
-
点击“Releases”页面,下载对应系统的安装包;
-
解压后运行程序,在设置中选择已下载的DeepSeek模型。
-
Open WebUI安装(有编程基础):
docker run -d -p 3000:3000 --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main
-
支持浏览器访问的界面,安装命令:
-
打开浏览器输入
http://localhost:3000即可使用。
-
6. 常见问题解决
下载卡顿或失败:
刷新DNS缓存:
ipconfig /flushdns
设置镜像地址:
set OLLAMA_HOST="https://ollama.jmypi.top"
ollama pull deepseek-r1:7b
运行时报显存不足:更换更小模型
显卡相当于AI的“大脑”,性能越强,AI反应越快。
更多推荐


所有评论(0)