前言

Ollama 是一个开源工具,旨在简化大语言模型(LLM)在本地计算机上的部署和运行。它支持多种开源模型(如 Llama2、Mistral、CodeLlama 等),并提供简单易用的命令行界面和 API,让用户能够快速在本地运行和测试这些模型,而无需复杂的配置或依赖云服务。

1.下载Ollama

Ollama

 

直接点击下载

下载好会自己启动,先手动关闭以便后续配置

2.配置

修改大模型存储路径

3.运行

①打开如下路径,这是Ollama默认的路径

C:\Users\用户\AppData\Local\Programs\Ollama

 ②在该路径下输入cmd打开黑窗口

根据自己电脑的配置选择自己想要下载大模型的版本

我这里拿deepseek举例

 模型库链接附上

deepseek-r1:1.5b

我这里先用最小的测试一下,我这里因为下载过所以可以直接提问,第一次运行该指令需要等待下载完成

使用ctrl+d退出

4.接口调用

在黑窗口使用命令

# 启动服务,默认端口11434

ollama serve

 接着就可以使用postman进行接口调用了

接口地址以及参数如下:
http://localhost:11434/api/generate

{

  "model": "deepseek-r1:1.5b",

  "prompt": "为什么天空是蓝色的?",

  "stream": false  // 设为 true 可启用流式响应(需特殊处理)

}

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐