随着人工智能的快速发展,大语言模型(如 DeepSeek)因其强大的文本生成和理解能力备受关注。通过 Ollama,我们可以在本地运行这些模型,既保护隐私又节省成本。本文将详细介绍如何在 Windows 系统上通过 Ollama 部署 DeepSeek 模型,包括环境配置、模型下载及运行测试,适合初学者和开发者。

一、准备工作

在开始之前,确保你的系统满足以下要求:

  1. 操作系统:Windows 10 或更高版本。
  2. 硬件:至少 8GB 内存(建议 16GB+),若有 GPU(NVIDIA)可加速运行。
  3. 网络:需要稳定的互联网连接下载 Ollama 和 DeepSeek 模型。
  4. 磁盘空间:至少 10GB 空闲空间(模型文件较大)。
二、安装 Ollama
  1. 下载 Ollama
    • 打开浏览器,访问 Ollama 官网(https://ollama.com/download)。
    • 点击“Download for Windows”按钮,下载安装包(例如 ollama-windows-amd64.exe)。
  2. 运行安装程序
    • 双击下载的 .exe 文件,按照提示完成安装,默认安装路径为 C:\Program Files\Ollama
    • 安装完成后,Ollama 会自动在后台运行。
  3. 验证安装
    • Win + R,输入 cmd 打开命令提示符。
    • 输入以下命令检查版本:
      ollama --version
      
    • 如果显示版本号(如 ollama version 0.1.x),说明安装成功。
三、下载 DeepSeek 模型
  1. 选择模型版本

    • DeepSeek 提供多个版本,如 deepseek-r1:1.5b(1.5亿参数,适合低配置电脑)和 deepseek-r1:14b(14亿参数,性能更强)。
    • 对于普通家用电脑,推荐 deepseek-r1:1.5b,内存需求较低。
      在这里插入图片描述
  2. 拉取模型

    • 在命令提示符中输入:
      ollama pull deepseek-r1:1.5b
      
    • 下载过程视网速而定,可能需要几分钟到半小时。完成后,模型会存储在 C:\Users\你的用户名\.ollama\models
  3. 验证模型

    • 输入以下命令查看已下载的模型:
      ollama list
      
    • 如果列表中出现 deepseek-r1:1.5b,说明模型已就绪。
四、运行 DeepSeek 模型
  1. 启动模型
    • 在命令提示符中输入:
      ollama run deepseek-r1:1.5b
      
    • 首次运行会加载模型,稍等片刻后会出现交互界面。
  2. 测试模型
    • 在提示符下输入问题,例如:
      你好,DeepSeek 能做什么?
      
    • 模型会回复类似:“你好!我可以回答问题、生成文本、帮助编程等。有什么我可以帮你的?”。
  3. 退出交互
    • 输入 /exit 或按 Ctrl + C 退出。
五、进阶使用:API 集成
  1. 启动 Ollama 服务
    • 在命令提示符中运行:
      ollama serve
      
    • 服务默认运行在 http://localhost:11434
  2. 通过 Python 调用
    • 安装 Python(建议 3.8+)和 ollama 库:
      pip install ollama
      
    • 创建一个简单脚本 test_deepseek.py
      import ollama
      response = ollama.chat(model="deepseek-r1:1.5b", messages=[
          {"role": "user", "content": "请写一首四行诗"}
      ])
      print(response['message']['content'])
      
    • 运行脚本:
      python test_deepseek.py
      
    • 输出可能为:
      春风吹过绿山岗,
      花开遍地吐芬芳,
      小鸟轻歌枝头舞,
      美好时光永不忘。
      
六、常见问题与解决
  1. 内存不足
    • 如果提示“Out of memory”,关闭其他程序,或尝试更小模型(如 deepseek-r1:1.5b)。
  2. 下载失败
    • 检查网络连接,或使用科学上网工具加速下载。
  3. GPU 未检测到
    • 确保安装 NVIDIA 驱动和 CUDA,Ollama 会自动利用 GPU 加速。
七、安装图形界面(可选)
  1. 下载 Open WebUI
    • 需要 Docker 支持,先安装 Docker Desktop(https://www.docker.com/products/docker-desktop)。
    • 在命令提示符中运行:
      docker run -d -p 3000:3000 --name open-webui ghcr.io/open-webui/open-webui:latest
      
  2. 访问界面
    • 打开浏览器,输入 http://localhost:3000,设置 Ollama API 地址为 http://localhost:11434
    • 在界面中选择 deepseek-r1:1.5b,即可通过网页与模型交互。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐