
本地部署 DeepSeekR1 模型并集成至 IDE
DeepSeekR1 模型凭借其出色的性能备受瞩目。通过本地部署该模型,你可以打造属于自己的 AI 神器。
在人工智能飞速发展的当下,DeepSeekR1 模型凭借其出色的性能备受瞩目。通过本地部署该模型,你可以打造属于自己的 AI 神器,不仅能避免使用官网 API 产生的费用,还能有效保障信息安全。然而,目前网络上的教程大多围绕官网 API 接入 IDE 展开,对于真正让大众本地部署并集成使用的教程却寥寥无几。本文将详细介绍从模型部署到集成至 IDE 的完整流程,助力你轻松拥有本地化的 AI 工具。
①安装 Ollama:根据你电脑的操作系统,去 Ollama 官网(https://ollama.com/)下载对应的安装包。Windows 系统找 Windows 版下载链接,Mac 系统下载 Darwin 版本,Linux 系统在终端输入命令curl -fsSL https://ollama.com/install.sh | sh就能下载。
安装后进入cmd命令行输入ollama -v,如果成功显示版本号则表示安装成功。
②下载deepseek-r1模型:下载并安装后ollama后可以在官网中点击Models,搜索或选择deepseek-r1,比如要7b模型,不同规模的模型在功能上有所侧重,例如较小的模型在代码补全方面表现出色,而较大的模型更擅长深度思考。这里演示选择下载量最高,最常用的7b模型。点击右侧的复制将ollama run deepseek-r1复制下来。
复制后直接粘贴到命令行中运行,它会自动下载,下载完成后即可开始对话。
它可以上下文哦~~~
/bye 退出模型。
ollama list 查看当前ollama中部署的模型列表。
③集成至IDE(VSCODE):打开 VSCODE,点击左侧的扩展图标(方块拼图形状),在搜索框中输入 “Continue”,找到该插件后点击 “安装”。安装完成后,为了操作更便捷,可将该插件拖至 VSCODE 的右侧。
安装完成后进行配置。点击 VSCODE 左下角的设置图标,在搜索框中输入 “Continue”,找到 “Continue: Provider” 选项,选择 “Ollama” 作为 Provider;再找到 “Continue: Model” 选项,选择 “Auto Detect”,这样它会自动识别已部署的 deepseek-r1 模型。
配置完成后,就可以在 VSCODE 中与 DeepSeekR1 模型进行对话了。
若想使用 AI 赋能代码,选中需要处理的代码,按下Ctrl+I(Windows/Linux 系统)或Command+I(Mac 系统),即可让 AI 接入。这时即可解锁AI Tab,AI修改代码等功能,基于强大的dsspseek让代码更加整洁,或根据阅读的代码规范或者芯片手册对代码提出建议。
通过使用@标识,模型可以读取各种类型的文件。由于全程运行的是本地模型,可以避免信息泄露,更加安全方便。
按照这些步骤,就能成功在本地部署基于 Ollama 的 DeepSeek 模型,赶紧试试吧!
更多推荐
所有评论(0)