一、环境准备

1.1 硬件要求

  • CPU:建议使用多核处理器(Intel i5 10代或同级以上)
  • 内存:最低8GB,推荐16GB及以上(模型越大需求越高)
  • 显卡:NVIDIA显卡(显存≥8GB),支持CUDA加速(RTX 3060及以上更优)
  • 存储空间:根据模型版本预留20GB-100GB可用空间

1.2 软件依赖

  • 操作系统:Windows 10/11(64位)、Linux(Ubuntu 20.04+)、macOS 12+
  • 工具包:Python 3.8+、Git、Docker(可选)
  • 运行框架:Ollama(核心部署工具)

二、部署流程

2.1 安装Ollama

  1. 访问官网:打开Ollama官网 ,点击“Download”按钮。
  2. 选择版本
    • Windows:双击.exe安装包,按向导完成安装。
    • macOS:拖拽.dmg文件至“应用程序”文件夹。
    • Linux:执行命令curl -fsSL https://ollama.com/install.sh | sh。
  3. 验证安装
    打开终端,输入ollama --version,显示版本号即成功(如ollama version 0.1.28)。

2.2 下载DeepSeek-R1模型

  1. 选择模型版本
    • 1.5B:显存≤6GB,适合基础任务。
    • 7B/8B:显存8-12GB,平衡性能与资源。
    • 32B及以上:显存≥16GB,需高性能计算卡(如RTX 4090)。
  2. 执行下载命令
# 以7B模型为例(Windows需以管理员身份运行PowerShell)
ollama run deepseek-r1:7b 
  1. 监控进度
  • 终端显示pulling manifest及进度条,下载完成后提示Success

2.3 配置前端工具(以Chatbox为例)

  1. 下载Chatbox
  1. 连接Ollama API
  • 打开Chatbox,进入“设置” → “模型供应商”,选择“Ollama”。
  • 输入API地址:http://localhost:11434
  1. 选择模型
  • 下拉菜单中勾选已安装的deepseek-r1:7b,保存配置。

2.4 运行与测试

  1. 启动服务
  # 保持Ollama后台运行,执行:
  ollama serve 
  1. 对话测试:
    在Chatbox输入框输入问题(如“简述量子计算原理”),观察回复内容。
  2. 性能调优(可选):
    • 调整线程数:在Ollama配置文件中设置num_threads: 8(根据CPU核心数调整)。
    • 显存分配:添加参数–gpu-memory 8000限制显存占用(单位MB)。

三、进阶配置

3.1 集成开发环境(VSCode)

  1. 安装插件
    搜索并安装“Continue”扩展,支持代码补全与调试。
  2. 绑定模型
    在.continue/config.json 中添加:
{
 "models": [{
   "title": "DeepSeek-R1",
   "provider": "ollama",
   "model": "deepseek-r1:7b"
 }]
}

3.2 WebUI部署(Open WebUI)

  1. 安装Docker
  1. 拉取镜像
  docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway  -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main  
  1. 访问界面
    浏览器打开http://localhost:3000,注册账号后选择deepseek-r1模型。

四、常见问题排查

问题现象 解决方案
下载模型时网络中断 使用ollama pull deepseek-r1:7b续传,或更换镜像源(如OLLAMA_HOST=镜像地址)
显存不足导致崩溃 切换更小模型(如7B→1.5B),或添加–num-gpu-layers 20减少GPU负载
Chatbox无法连接Ollama 检查防火墙设置,确保11434端口开放,或重启Ollama服务
回复速度慢 在Ollama启动命令中添加–verbose查看日志,优化线程数与批处理大小

五、注意事项

  1. 数据安全:本地模型处理敏感数据时,建议关闭互联网连接。
  2. 版本更新:定期执行ollama update获取最新模型优化。
  3. 资源监控:使用nvidia-smi(Linux/Windows)或Activity Monitor(macOS)监控资源占用。
    通过上述步骤,您可快速完成DeepSeek的本地部署,享受低延迟、高隐私的AI服务。如需扩展功能,可参考Ollama官方文档 进一步探索。
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐