这里是对 Ollama 命令的详细使用说明,包括常见命令、参数解释和示例,帮助大家全面掌握 Ollama 的使用。


1. Ollama简介

Ollama 是一个本地LLM(大语言模型)运行工具,它允许你在本地设备上拉取、运行和管理AI模型(如LLaMA、Mistral、Gemma等)。Ollama支持CLI操作,非常适合开发者和AI爱好者使用。


2. 基本命令列表

命令 作用
ollama pull 拉取模型
ollama run 运行模型交互
ollama create 创建自定义模型
ollama list 查看本地模型列表
ollama show 查看模型详细信息
ollama push 推送自定义模型到Ollama Hub(或其他仓库)
ollama cp 复制/重命名模型
ollama rm 删除本地模型
ollama serve 以服务形式运行(搭建API)
ollama pull 从远程仓库拉取模型
ollama system 查看系统资源使用情况

3. 命令详细说明与示例

3.1 拉取模型(pull)

从官方仓库或自定义仓库拉取模型。

ollama pull llama2

可指定具体模型版本:

ollama pull llama2:7b

从其他仓库地址拉取:

OLLAMA_ORIGIN=https://your-custom-registry.com ollama pull my-custom-model

3.2 运行模型(run)

启动指定模型,进入交互对话模式。

ollama run llama2

直接运行并指定prompt:

ollama run llama2 -p "帮我写一个Python冒泡排序。"

注意

  • 可通过-p传入prompt。
  • 可以通过-m指定模型,方便shell脚本调用。

3.3 创建自定义模型(create)

根据自定义Modelfile创建新模型。

Modelfile(示例):

FROM llama2:7b
SYSTEM "You are a helpful AI assistant."

命令:

ollama create my-llama2 -f ./Modelfile

3.4 查看本地模型列表(list)

ollama list

输出示例:

NAME              SIZE       MODIFIED
llama2            3.8 GB     2 days ago
mistral           4.2 GB     5 hours ago

3.5 查看模型详细信息(show)

ollama show llama2

可查看模型的元信息,如系统消息、模板等。


3.6 推送自定义模型(push)

推送本地自定义模型到远程仓库(如Ollama Hub)。

ollama push my-llama2

可设置环境变量OLLAMA_ORIGIN来推送到自定义仓库。


3.7 复制模型(cp)

ollama cp my-llama2 my-llama2-backup

相当于模型的重命名和备份。


3.8 删除模型(rm)

ollama rm my-llama2

3.9 作为API服务运行(serve)

ollama serve

默认监听:

http://localhost:11434

可以接受HTTP API请求。

示例:

curl -X POST http://localhost:11434/api/generate -d '{
    "model": "llama2",
    "prompt": "Explain what is AI."
}'

3.10 系统信息查看(system)

查看Ollama后台运行的系统资源信息,如显存、CPU等:

ollama system

输出示例:

Version: v0.1.32
Models: 5
Disk usage: 28 GB
GPU: RTX 3090, 24 GB

4. 常用参数说明

参数 说明 示例
-m 指定模型 -m llama2:7b
-p 直接传入prompt -p "写一个hello world程序"
-f 指定Modelfile路径 -f ./Modelfile
-t 设定生成温度 -t 0.7
--stream 开启流式输出 --stream
--no-cache 禁用缓存 --no-cache

5. 配置环境变量

可在~/.ollama/config.toml中设置一些全局参数,比如镜像源或缓存目录:

origin = "https://custom-ollama-registry.com"
cache_dir = "/path/to/cache"

6. 结合 Docker 使用(可选)

你也可以通过Docker运行Ollama:

拉取Ollama Docker镜像

docker pull ollama/ollama

启动容器

docker run -d --name ollama \
  -v ollama_data:/root/.ollama \
  -p 11434:11434 \
  ollama/ollama

进入容器

docker exec -it ollama bash

7. API调用示例

Ollama内置API服务,结合前端或其他程序调用:

获取模型列表

curl http://localhost:11434/api/tags

生成内容

curl -X POST http://localhost:11434/api/generate -d '{
    "model": "llama2",
    "prompt": "什么是机器学习?",
    "stream": false
}'

8. 总结

功能 命令
拉取模型 ollama pull <model>
运行模型 ollama run <model>
自定义模型 ollama create <name> -f <Modelfile>
查看模型 ollama list, ollama show
删除模型 ollama rm <name>
服务模式 ollama serve
查看系统资源 ollama system
API调用 curl -X POST http://localhost:11434/api/generate

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐