DeepSeek彻底出圈了,火到了大江南北,火到人尽皆知。虽然在线已经足够好用,但把模型部署到本地,才能真正实现独家定制,避免DeepSeek服务器繁忙的问题,让 DeepSeek R1 的深度思考成为你的专属服务。

关于本地部署DeepSeek,我们选择的Ollama。

Ollama是一个基于 Go 语言开发的开源框架,它允许用户在本地启动并运行大型语言模型。它提供了一个简单易用的内容生成接口,但无需开发经验即可直接与模型进行交互。

为什么选择Ollama而不是其他的框架,比如LM Studio?那是因为Ollama的可扩展性强,虽然初期配置复杂,但我们可以通过工具来把初期的配置简单化。

ServBay让Ollama初期配置简单化。

用ServBay安装Ollama

首先我们下载ServBay并根据软件提示安装好之后,到左边的菜单中选择服务,下方的AI -- Ollama,然后点击绿色的下载按钮即可下载。

ServBay下载地址https://www.servbay.com

只需要注意的是,下载完成后需要点击激活按钮启动Ollama。

安装模型

接着到左边的菜单栏,点击AI,在中间的模型中找到deepseek-r1,选择需要的模型大小,点击绿色按钮下载即可

下载完成后,对话需要通过终端进行操作,这使用起来比较不方便。

那么我们就需要采用GUI方式调用Ollama API,并实现完整的GUI对话功能,而我选择的是Chatbox。

配置Chatbox

Chatbox是人工智能客户端应用,类似于一个智能的“聊天窗口”,能够连接多种语言模型。

下载并安装好Chatbox之后,就可以开始配置。

打开ChatBox,选择模型提供方OLLAMA API,API host输入 https://ollama.servbay.host

选择对应的模型deepseek-r1,保存。

Chatbox下载地址https://chatboxai.app

之后,我们就可以使用GUI来进行对话了。

写在最后

无论是Ollama,还是ServBay,作为一种工具,如果能够合理有效地运用,都能对我们的工作和学习产生极大的帮助。它们不仅能够提升工作效率,减少重复性劳动,还能够帮助我们更好地解决问题。特别是在快速变化的时代,掌握和利用这些工具,不仅能让我们在专业领域中保持竞争力,也能为个人成长和知识积累提供强有力的支持。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐