目录

一、使用Python 调用Ollama 部署到本地的DeepSeek 模型

1.Ollama如何部署本地DeepSeek模型

2. 下载ollama包

3.编写代码使用ollama工具包调用API接口

​编辑


一、使用Python 调用Ollama 部署到本地的DeepSeek 模型

1.Ollama如何部署本地DeepSeek模型

查询地址:如何使用Ollama部署本地模型,如何部署本地DeepSeek-R1模型-CSDN博客文章浏览阅读453次,点赞8次,收藏7次。如何使用Ollama部署本地模型,如何部署本地DeepSeek-R1模型https://blog.csdn.net/2301_79073157/article/details/146236640?spm=1001.2014.3001.5501

2. 下载ollama包

1. 阿里云 http://mirrors.aliyun.com/pypi/simple/ 
2. 中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/ 
3. 豆瓣(douban) http://pypi.douban.com/simple/ 
4. 清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/ 
5. 中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
因为默认是外网镜像源下载速度可能会很慢或者下载失败,上方提供了国内的镜像源,替换到下方代码中的源地址然后执行命令即可

#临时使用阿里云镜像源下载ollama工具包(使用了临时配置的镜像源)
pip install ollama -i http://mirrors.aliyun.com/pypi/simple/ 
#下载allama工具包
pip install ollama 

#永久更换镜像源
pip config set global.index-url [源地址]

#临时更换镜像源下载
pip install ollama -i [源地址]

可以在pyCharm命令窗口中执行也可以在命令cmd命令窗口中执行

上方图片示例是在pyCharm命令窗口中执行

这样就下载好了 

3.编写代码使用ollama工具包调用API接口

 如果你没有更改过host(ip地址)和port(端口),执行以下代码

import ollama

res=ollama.chat(model="deepseek-r1:1.5b", messages=[{"role": "user","content": "你是谁"}])
print(res.message.content)

如果你更改了host(ip地址)和port(端口),执行以下代码

import ollama


client = ollama.Client(host="http://localhost:11434")
res = client.chat(model="deepseek-r1:1.5b", messages=[{"role": "user", "content": "你是谁"}])

print(res.message.content)

上方示例图可以看到调用成功了 

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐