前言

        上篇博文,我们通过Ollama搭建了本地的DeepSeek模型,本文主要是方便开发人员,如何通过代码或工具,通过API接口调用本地deepSeek模型

前文:DeepSeek-R1本地搭建_deepseek 本地部署-CSDN博客

注:本文不仅仅适用DeepSeek, 通过Ollama安装的模型,都适用

一:Ollama接口

        上文中,我们采用ollama来搭建deepSeek r1模型,所有调用本地deepSeek模型,可以使用ollama开放的API来操作。

        

        ollama默认开放端口:11434        

        ollama接口文档地址:https://github.com/ollama/ollama/blob/main/docs/api.md

里面包含各种接口,包括如下:(访问文档,点击自行选择)

注意:文档是英文,看不懂用浏览器翻一下

​ 

二:调用案例(创建聊天)

API文档地址:(参考)https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completionhttps://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion

接口地址:http://localhost:11434/api/chat

请求方式:POST

请求类型:JSON

请求内容:

{
  "model": "deepseek-r1:1.5b",
  "messages": [
    {
      "role": "user",
      "content": "你好?"
    }
  ]
}

注:这里model代码你的模型,content是你要聊天的内容,role指代角色,还要其他参数,请参考官方文档。

POSTMAN访问如下:

三:调用案例(生成请求)

API文档地址:(参考)https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completionhttps://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completion

接口地址:http://localhost:11434/api/generate

请求方式:POST

请求类型:JSON

请求内容:

{
  "model": "deepseek-r1:1.5b",
  "prompt": "你好",
  "stream": false
}

注:如果stream设置为false,响应将是单个 JSON 对象

返回结果:

{
    "model": "deepseek-r1:1.5b",
    "created_at": "2025-03-04T08:40:06.4879238Z",
    "response": "<think>\n\n</think>\n\n你好!很高兴见到你,有什么我可以帮忙的吗?",
    "done": true,
    "done_reason": "stop",
    "total_duration": 951604700,
    "load_duration": 23765300,
    "prompt_eval_count": 4,
    "prompt_eval_duration": 57000000,
    "eval_count": 17,
    "eval_duration": 870000000
}

POSTMAN:

四:其他API

请参考官方文档:

https://github.com/ollama/ollama/blob/main/docs/api.md

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐