1. 前言

在人工智能技术快速发展的今天,大语言模型(LLM)正逐步成为各类应用的核心驱动力。Ollama作为一个便捷的本地运行平台,可以帮助开发者在本地高效部署和运行大模型。本文将详细介绍如何在Windows环境下安装Ollama,并配置环境变量以优化模型存储,同时演示如何运行deepseek-r1:1.5b模型。

2. Ollama的安装

2.1 下载Ollama安装包

首先,需要前往Ollama的官方网站下载安装文件。Ollama的官方网站通常会提供最新版本的下载链接。确保选择适合Windows系统的安装包。
在这里插入图片描述

下载完成后,将会得到一个名为 OllamaSetup.exe 的安装程序。

2.2 执行安装

打开命令提示符(Win+R 输入 cmd 并回车),然后使用以下命令安装Ollama到指定目录,例如 D:\ollama

OllamaSetup.exe /DIR=D:\ollama

在这里插入图片描述

此命令将Ollama安装到 D:\ollama 目录下,而不是默认的 C:\Program Files,这样可以更方便地管理和访问Ollama。

安装过程可能需要几分钟,等待完成即可。

2.3 验证安装

安装完成后,打开新的命令提示符窗口,输入以下命令来检查Ollama是否安装成功:

ollama --version

如果终端返回一个版本号,例如 ollama version is 0.5.13,说明安装已经成功。

3. 配置环境变量

Ollama在运行过程中会下载和存储模型数据,为了优化存储路径,可以通过环境变量来指定模型的存放目录。

3.1 设置OLLAMA_HOME变量

在这里插入图片描述

在Windows系统中,按以下步骤配置环境变量:

  1. 右键点击“此电脑”,选择“属性”
  2. 进入“高级系统设置”
  3. 点击“环境变量”
  4. 在“系统变量”部分,点击“新建”
  5. 变量名输入 OLLAMA_MODELS,变量值设置为 D:\ollama\models(或其他合适路径)
  6. 点击“确定”保存设置

3.2 验证环境变量

重新启动命令提示符,并运行以下命令检查环境变量是否生效:

echo %OLLAMA_MODELS%

如果终端正确返回 D:\ollama\models,说明环境变量配置成功。

4. 运行模型

Ollama的核心功能是运行大语言模型。这里我们以 deepseek-r1:1.5b 为例,介绍如何加载并运行模型。

4.1 运行deepseek-r1:1.5b模型

在这里插入图片描述

在命令提示符中执行以下命令:

ollama run deepseek-r1:1.5b

该命令会自动下载 deepseek-r1:1.5b 模型(如果本地未存储),然后启动推理。

4.2 使用模型进行推理

运行后,你可以在终端输入文本,模型会基于输入生成相应的回答。例如:

ollama run deepseek-r1:1.5b
>>> 你好
<think>

</think>

你好!很高兴见到你,有什么我可以帮忙的吗?无论是问题、建议还是闲聊,我都在这儿为你服务。😊

>>> 你是谁
<think>

</think>

您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

如果想要终止对话,可以使用 Ctrl + C 退出。

5. Ollama命令介绍

Ollama提供了一系列命令用于管理和运行模型,以下是常见的命令及其功能:

5.1 Ollama命令列表

  • serve:启动Ollama服务。
  • create:从Modelfile创建一个新模型。
  • show:显示某个模型的信息。
  • run:运行指定模型。
  • stop:停止正在运行的模型。
  • pull:从注册表中拉取模型。
  • push:将本地模型推送到注册表。
  • list:列出本地已下载的模型。
  • ps:列出正在运行的模型。
  • cp:复制模型。
  • rm:删除模型。
  • help:查看Ollama命令的帮助信息。

5.2 ollama run

用于运行指定的模型。例如:

ollama run deepseek-r1:1.5b

此命令会加载 deepseek-r1:1.5b 模型,并允许用户与其进行交互。

5.3 ollama rm

用于删除本地存储的模型。例如:

ollama rm deepseek-r1:1.5b

此命令会删除 deepseek-r1:1.5b 模型文件,以释放存储空间。

5.4 ollama show

用于查看本地已下载的模型信息。例如:

ollama show deepseek-r1:1.5b

此命令会显示 deepseek-r1:1.5b 的详细信息,包括大小、版本等。

5.5 ollama help

用于查看Ollama的帮助信息。例如:

ollama help

此命令会列出所有可用的Ollama命令及其说明。

6. 可能遇到的问题及解决方案

6.1 安装后无法识别ollama命令

可能的原因包括:

  • 没有正确设置环境变量
  • 终端未重新打开
  • 安装路径错误

可以尝试手动添加 D:\ollamaPath 环境变量,并重新启动终端。

6.2 模型下载过慢

  • 确保网络稳定,建议使用加速器或更换网络环境。
  • 直接下载模型后,手动放入 OLLAMA_HOME 目录,再运行命令。

6.3 运行时显存不足

  • 关闭其他占用显存的应用程序。
  • 调整 ollama run 的参数,尝试降低运行时的显存占用。

7. 结语

Ollama是一个强大且易用的本地大模型运行平台,能够让开发者更便捷地体验和使用AI模型。通过本文的介绍,相信你已经掌握了Ollama的安装、配置和基本使用方法。后续可以尝试更多的模型,并结合实际需求优化使用体验。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐