
在 Windows 上通过 Ollama 部署 DeepSeek 的详细指南
本文详细介绍了如何在 Windows 系统上通过 Ollama 部署 DeepSeek 模型。从安装 Ollama、下载 DeepSeek 模型到运行测试,每一步都配有具体操作和代码示例。文中还提供了 API 集成和图形界面的可选方案,适合初学者和开发者快速上手。无论是生成文本还是解决实际问题,本地部署 DeepSeek 既简单又高效,兼顾隐私与性能。
·
随着人工智能的快速发展,大语言模型(如 DeepSeek)因其强大的文本生成和理解能力备受关注。通过 Ollama,我们可以在本地运行这些模型,既保护隐私又节省成本。本文将详细介绍如何在 Windows 系统上通过 Ollama 部署 DeepSeek 模型,包括环境配置、模型下载及运行测试,适合初学者和开发者。
一、准备工作
在开始之前,确保你的系统满足以下要求:
- 操作系统:Windows 10 或更高版本。
- 硬件:至少 8GB 内存(建议 16GB+),若有 GPU(NVIDIA)可加速运行。
- 网络:需要稳定的互联网连接下载 Ollama 和 DeepSeek 模型。
- 磁盘空间:至少 10GB 空闲空间(模型文件较大)。
二、安装 Ollama
- 下载 Ollama:
- 打开浏览器,访问 Ollama 官网(https://ollama.com/download)。
- 点击“Download for Windows”按钮,下载安装包(例如
ollama-windows-amd64.exe
)。
- 运行安装程序:
- 双击下载的
.exe
文件,按照提示完成安装,默认安装路径为C:\Program Files\Ollama
。 - 安装完成后,Ollama 会自动在后台运行。
- 双击下载的
- 验证安装:
- 按
Win + R
,输入cmd
打开命令提示符。 - 输入以下命令检查版本:
ollama --version
- 如果显示版本号(如
ollama version 0.1.x
),说明安装成功。
- 按
三、下载 DeepSeek 模型
-
选择模型版本:
- DeepSeek 提供多个版本,如
deepseek-r1:1.5b
(1.5亿参数,适合低配置电脑)和deepseek-r1:14b
(14亿参数,性能更强)。 - 对于普通家用电脑,推荐
deepseek-r1:1.5b
,内存需求较低。
- DeepSeek 提供多个版本,如
-
拉取模型:
- 在命令提示符中输入:
ollama pull deepseek-r1:1.5b
- 下载过程视网速而定,可能需要几分钟到半小时。完成后,模型会存储在
C:\Users\你的用户名\.ollama\models
。
- 在命令提示符中输入:
-
验证模型:
- 输入以下命令查看已下载的模型:
ollama list
- 如果列表中出现
deepseek-r1:1.5b
,说明模型已就绪。
- 输入以下命令查看已下载的模型:
四、运行 DeepSeek 模型
- 启动模型:
- 在命令提示符中输入:
ollama run deepseek-r1:1.5b
- 首次运行会加载模型,稍等片刻后会出现交互界面。
- 在命令提示符中输入:
- 测试模型:
- 在提示符下输入问题,例如:
你好,DeepSeek 能做什么?
- 模型会回复类似:“你好!我可以回答问题、生成文本、帮助编程等。有什么我可以帮你的?”。
- 在提示符下输入问题,例如:
- 退出交互:
- 输入
/exit
或按Ctrl + C
退出。
- 输入
五、进阶使用:API 集成
- 启动 Ollama 服务:
- 在命令提示符中运行:
ollama serve
- 服务默认运行在
http://localhost:11434
。
- 在命令提示符中运行:
- 通过 Python 调用:
- 安装 Python(建议 3.8+)和
ollama
库:pip install ollama
- 创建一个简单脚本
test_deepseek.py
:import ollama response = ollama.chat(model="deepseek-r1:1.5b", messages=[ {"role": "user", "content": "请写一首四行诗"} ]) print(response['message']['content'])
- 运行脚本:
python test_deepseek.py
- 输出可能为:
春风吹过绿山岗, 花开遍地吐芬芳, 小鸟轻歌枝头舞, 美好时光永不忘。
- 安装 Python(建议 3.8+)和
六、常见问题与解决
- 内存不足:
- 如果提示“Out of memory”,关闭其他程序,或尝试更小模型(如
deepseek-r1:1.5b
)。
- 如果提示“Out of memory”,关闭其他程序,或尝试更小模型(如
- 下载失败:
- 检查网络连接,或使用科学上网工具加速下载。
- GPU 未检测到:
- 确保安装 NVIDIA 驱动和 CUDA,Ollama 会自动利用 GPU 加速。
七、安装图形界面(可选)
- 下载 Open WebUI:
- 需要 Docker 支持,先安装 Docker Desktop(https://www.docker.com/products/docker-desktop)。
- 在命令提示符中运行:
docker run -d -p 3000:3000 --name open-webui ghcr.io/open-webui/open-webui:latest
- 访问界面:
- 打开浏览器,输入
http://localhost:3000
,设置 Ollama API 地址为http://localhost:11434
。 - 在界面中选择
deepseek-r1:1.5b
,即可通过网页与模型交互。
- 打开浏览器,输入
更多推荐
所有评论(0)