1 本地安装

我们需要用到两个神器:

一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。

另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。

(1)下载Ollama,并拉取安装DeepSeek

Ollama是一个可以在本地运行和管理大模型的神器,完全本地运行,而且支持多种模型,包括但不限于Llama、DeepSeek、Qwen、Gemma等等。

登录网站,直接去下载页:

Download Ollama on macOS

下载后是一个压缩包,二话不说,直接解压运行Ollama,然后进入到终端窗口

目前DeepSeek-R1可选的模型有满血版671B,和蒸馏版1.5B、7B、8B、14B、32B、70B(按需选择)

终端输入:

ollama run deepseek-r1:32B

(2)安装扩展

Page Assist是Chrome浏览器插件,Edge还不支持,通过浏览器下载,打开开发人员模型,把插件拖到下边最后一个页面里。

打开扩展,即可

2 集成VScode

(1)安装CONTINUE

选择模型:

使用:

参考:

如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!

本地部署Deepseek R1保姆教程!网盘直接下载 聊天前端界面+接入VSCode编程助手_哔哩哔哩_bilibili

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐