最近国产大模型 DeepSeek 非常火,DeepSeek 是一个开源模型,我们可以通过本地部署在自己的终端上随时使用,部署到本地后无需联网即可直接使用。基于Ollama框架部署DeepSeek或其他AI大模型,可以参考我的博客:

锡产感知带你在Windows10系统部署DeepSeek

锡产感知带你在CentOS7系统部署DeepSeek

相信我们很多开发人员都使用过Postman对WebService接口进行开发调试。

我这边部署完成后,使用Postman访问Ollama API并调用DeepSeek模型

使用Postman配置请求

请求类型为 POST。

在“输入”框中输入Ollama的API URL,本地部署的是 http://localhost:11434/api/chat(确保你的Ollama服务正在本地运行,Ollama没启动会一直卡着)。

在“Header”标签页中,默认添加了以下内容:

Key: Content-Type

Value: application/json

编写请求体:

在“Body”标签页中,选择“raw”并设置编码为“JSON (application/json)”。

输入以下JSON格式的请求体:

{
  "model": "deepseek-r1:8b",
  "messages": [
    {
        "role": "user",
        "content": "输出200以内的质数"
    }
  ],
  "stream": false
}

我的本地大模型(http://localhost:11434/api/chat)查询出的结果

我的云端大模型(http://106.14.135.17:11434/api/chat)查询出的结果

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐