Deepseek-r1本地部署,部署VScodeAi编程助手
创建一个文件,ctrl + i 即可唤醒deepseek,输入要求,输出代码,效果如下。下载适合你电脑版本的ollama应用程序,运行安装程序安装,如果看见任务栏有一个。- M1 Pro/Max 或 M3 芯片(16GB+)- GPU: 4x RTX 4090(48GB 显存)- 多卡(如 2x RTX 4090 48GB)- M2 Pro/Max(32GB 统一内存)- M3 Max(64GB+
一.下载ollama
下载适合你电脑版本的ollama应用程序,运行安装程序安装,如果看见任务栏有一个
的图标就表示你已经下载好了
二.下载模型
命令我已经帮大家整理好了
复制到命令行cmd 运行即可,但是一定要按照下方配置下载
1.5b模型下载
ollama run deepseek-r1:1.5b
平台 |
最低配置 |
推荐配置 |
---|---|---|
Windows |
- CPU: Intel i5 / Ryzen 5 |
- CPU: Intel i7 / Ryzen 7 |
- RAM: 8GB |
- RAM: 16GB |
|
- GPU: NVIDIA GTX 1650 (4GB) |
- GPU: RTX 3060 (12GB) |
|
macOS |
- M1/M2 芯片(8GB 统一内存) |
- M1 Pro/Max 或 M3 芯片(16GB+) |
Linux |
- CPU: 4 核 |
- CPU: 8 核 |
- RAM: 8GB |
- RAM: 16GB |
|
- GPU: NVIDIA T4 (16GB) |
- GPU: RTX 3090 (24GB) |
7b&8b模型下载
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
7B/8B 模型
平台 |
最低配置 |
推荐配置 |
---|---|---|
Windows |
- CPU: Intel i7 / Ryzen 7 |
- CPU: Intel i9 / Ryzen 9 |
- RAM: 16GB |
- RAM: 32GB |
|
- GPU: RTX 3060 (12GB) |
- GPU: RTX 4090 (24GB) |
|
macOS |
- M2 Pro/Max(32GB 统一内存) |
- M3 Max(64GB+ 统一内存) |
Linux |
- CPU: 8 核 |
- CPU: 12 核 |
- RAM: 32GB |
- RAM: 64GB |
|
- GPU: RTX 3090 (24GB) |
- 多卡(如 2x RTX 4090) |
14b模型下载
ollama run deepseek-r1:14b
14B 模型
平台 |
最低配置 |
推荐配置 |
---|---|---|
Windows |
- GPU: RTX 3090 (24GB) |
- GPU: RTX 4090 + 量化优化 |
- RAM: 32GB |
- RAM: 64GB |
|
macOS |
- M3 Max(64GB+ 统一内存) |
- 仅限量化版本,性能受限 |
Linux |
- GPU: 2x RTX 3090(通过 NVLink) |
- 多卡(如 2x RTX 4090 48GB) |
- RAM: 64GB |
- RAM: 128GB |
32b模型下载
ollama run deepseek-r1:32b
平台 |
最低配置 |
推荐配置 |
---|---|---|
Windows |
- 不推荐(显存不足) |
- 需企业级 GPU(如 RTX 6000 Ada) |
macOS |
- 无法本地部署(硬件限制) |
- 云 API 调用 |
Linux |
- GPU: 4x RTX 4090(48GB 显存) |
- 专业卡(如 NVIDIA A100 80GB) |
- RAM: 128GB |
- RAM: 256GB + PCIe 4.0 SSD |
三.验证模型是否正常
检查你下载了那些模型
ollama list
运行模型命令
ollama run 模型名
=
四.打开vscode 配置模型
在插件商店搜索该插件安装
点击continue图标,点击添加模型
厂商选择ollama然后点击connect,即可自动检测
创建一个文件,ctrl + i 即可唤醒deepseek,输入要求,输出代码,效果如下
更多推荐
所有评论(0)