使用Python 调用Ollama 部署到本地的DeepSeek 模型
因为默认是外网镜像源下载速度可能会很慢或者下载失败,上方提供了国内的镜像源,替换到下方代码中的源地址然后执行命令即可。如何使用Ollama部署本地模型,如何部署本地DeepSeek-R1模型。如何使用Ollama部署本地模型,如何部署本地DeepSeek-R1模型-CSDN博客。如果你没有更改过host(ip地址)和port(端口),执行以下代码。可以在pyCharm命令窗口中执行也可以在命令cm
·
目录
一、使用Python 调用Ollama 部署到本地的DeepSeek 模型
一、使用Python 调用Ollama 部署到本地的DeepSeek 模型
1.Ollama如何部署本地DeepSeek模型
2. 下载ollama包
1. 阿里云 http://mirrors.aliyun.com/pypi/simple/
2. 中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
3. 豆瓣(douban) http://pypi.douban.com/simple/
4. 清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
5. 中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
因为默认是外网镜像源下载速度可能会很慢或者下载失败,上方提供了国内的镜像源,替换到下方代码中的源地址然后执行命令即可
#临时使用阿里云镜像源下载ollama工具包(使用了临时配置的镜像源)
pip install ollama -i http://mirrors.aliyun.com/pypi/simple/
#下载allama工具包
pip install ollama
#永久更换镜像源
pip config set global.index-url [源地址]
#临时更换镜像源下载
pip install ollama -i [源地址]
可以在pyCharm命令窗口中执行也可以在命令cmd命令窗口中执行
上方图片示例是在pyCharm命令窗口中执行
这样就下载好了
3.编写代码使用ollama工具包调用API接口
如果你没有更改过host(ip地址)和port(端口),执行以下代码
import ollama
res=ollama.chat(model="deepseek-r1:1.5b", messages=[{"role": "user","content": "你是谁"}])
print(res.message.content)
如果你更改了host(ip地址)和port(端口),执行以下代码
import ollama
client = ollama.Client(host="http://localhost:11434")
res = client.chat(model="deepseek-r1:1.5b", messages=[{"role": "user", "content": "你是谁"}])
print(res.message.content)
上方示例图可以看到调用成功了
更多推荐
所有评论(0)