1. 安装Ollama

从官网下载安装包(https://ollama.com/download)直接安装。

可选配置:

对于windows用, 可以通过OLLAMA_MODELS 环境变量来更改模型存储位置。

默认情况下,Ollama 模型会存储在 C 盘用户目录下的 .ollama/models 文件夹,占用 C 盘空间。 将其更改到其他分区可以更好地管理你的存储。

步骤 1:找到系统环境变量的设置入口。

  • 方法 1:开始->设置->关于->高级系统设置->系统属性->环境变量。

  • 方法 2:此电脑->右键->属性->高级系统设置->环境变量。

步骤 2:设置 OLLAMA_MODELS 环境变量 (更改模型存储位置)

  • 在 “环境变量” 窗口的 “系统变量(S)” 区域 (或者 “用户变量(U)” 区域,根据你的需求选择),点击 “新建(W)…” 按钮。
  • 在 “变量名(N)” 输入框中,输入: OLLAMA_MODELS (注意大小写,建议全部大写)。
  • 在 “变量值(V)” 输入框中,输入你想要设置的模型存储路径。 例如,如果你想将模型存储到 E 盘的 ollama\models 文件夹下,你可以在 “变量值(V)” 中输入: E:\ollama\models (请根据你的实际情况修改盘符和文件夹路径)。
  • 点击 “确定” 按钮,关闭 “新建系统变量” (或者 “新建用户变量”) 窗口。
    注意: 如果你不知道如何设置 OLLAMA_MODELS 环境变量,可以参考下面的示例。

image

2. 运行deepseek

运行前可以通过 https://tools.thinkinai.xyz/ 查看当前机器能部署多少参数的模型

比如我当前的机器可以部署一个 deepseek-r1:8b 的模型:

image

在命令行运行如下命令:

# 这里为了方便演示,我先运行一个较小的模型(首次运行会自动下载模型文件)
ollama run deepseek-r1:1.5b

ps:如果你不知到怎么打开windows命令行,可以点击这个 文档 查看

更多的模型你可以在 ollama 官网 上找到,小模型的话建议使用蒸馏过的模型,可以通过 distill 关键字搜索。

image

3. 验证部署

1. 查看模型是否已安装

ollama list

有如下输出,说明安装成功
image

2.调用api验证

# 调用API测试
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:1.5b",
"prompt": "用中文解释AI"
}'

image

到这里模型就已经部署完成,但是命令行太原始了,接下来我们找一个对话界面工具。

4.对话界面工具

下载一个对话UI,点击 地址 前往下载对应的操作系统的安装包

image

打开chatbox 后我们点击左下方设置 , 选择模型提供方为 OLLAMA API , 模型选择我们刚刚下载好的 deepseek-r1:1.5b

image

保存配置后,可以开始愉快的使用了😊

image

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐