相关链接

Ollama
Ollama Models
Ollama相关api
VsCode下载

Ollama

安装ollama

Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。

在这里插入图片描述

配置ollama models下载地址

默认会下载到系统盘
在这里插入图片描述

下载Model

ollama官网的models中搜索,只要在上面能搜到的Model都能通过命令下载到本地

# 下载命令和运行命令一样
ollama run xxx

在这里插入图片描述
在这里插入图片描述
Success! 默认端口号为11434
http://localhost:11434
如果要更改端口号,到环境变量中添加或更改OLLAMA_HOST
也可以通过接口访调用,以下为相关api👇
https://ollama.cadn.net.cn/api.html

Continue接入VsCode

安装continue插件

在这里插入图片描述

添加模型

在这里插入图片描述

打开配置文件

在这里插入图片描述
或者直接在设置中配置
在这里插入图片描述

配置项

配置models,如果有代码补全需求,添加tabAutocompleteModel配置
在这里插入图片描述

预告:RAG,知识库

在这里插入图片描述
在这里插入图片描述


print("有一种英雄主义就是当我们看清社会的真相以后,依然选择要热爱生活,珍惜生命。")
print("不让别人烦恼是慈悲,不让自己烦恼是智慧")
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐