前言

嘿,朋友们!最近国产大模型DeepSeek特别火,以至于频繁出现反应迟缓甚至宕机的情况,和两年前ChatGPT刚推出时的遭遇颇为相似。这让我想起了那句老话:“自己动手,丰衣足食”。万幸的是,DeepSeek是一个开源模型,我们完全可以通过本地部署,在自己的终端上随时使用它,不再受网络拥堵和服务器宕机的困扰,让你也能在自己的电脑💻上享受智能搜索的乐趣。接下来,咱们就来聊聊这个超酷的技术,带你一步步搞定DeepSeek的本地部署, go go go!


一.为什么想部署DeepSeek?

1. 摆脱网络限制

每次使用DeepSeek时,都要依赖网络连接,这不仅速度慢,还容易遇到服务器繁忙或宕机的情况。本地部署后,我可以在自己的机器上随时调用它,再也不用担心网络问题了。

2. 保护隐私数据

有些敏感信息我不太愿意上传到云端,本地部署可以让我在安全的环境中处理这些数据,不用担心隐私泄露。

3. 提升工作效率

有了本地部署的DeepSeek,我可以随时获取信息,无论是工作中的数据分析,还是生活中的知识查询,都能迅速得到答案,大大提升我的工作效率

4. 探索更多可能性

开源的DeepSeek给了我更多自由度,我可以根据自己的需求进行定制和优化,探索更多有趣的应用场景。

二.deepseek本地部署教程

1.安装Ollama

Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计,Ollama支持多种操作系统,包括Windows、macOS和Linux

访问Ollama的官方网站:https://ollama.com/,点击“下载”按钮,下载完之后直接点击安装即可

官网下载非常慢,如有需要互关三连

下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。


验证安装:安装完成后,在终端输入以下命令,检查Ollama版本:

ollama --version

2.ollama配置环境变量

可以按win键搜索栏搜索“环境变量”,下图搜索,打开“编辑系统环境变量”设置:

点击“高级”下面点“环境变量”,在环境变量界面单击”新建“按钮,然后新建变量:OLLAMA_MODELS,用于修改ollama的模型存储路径,默认是C盘,这里我们更改ollama的模型存储为D盘,填写完成之后点“确定”。

变量名:OLLAMA_MODELS

变量值:D:\ollama

然后我们再新建一个用户变量:OLLAMA_HOST,变量值是:127.0.0.1,单击确定,用于更改服务监听地址和端口。

默认为127.0.0.1(仅限本机访问)。如需远程访问,可设置为0.0.0.0,一般本机访问即可。

继续再新建第三个变量,为http开放请求,变量名为“OLLAMA_ORIGINS”,变量值填写 “*”,单击确定。

第四个新建变量名为“OLLAMA_PORT”,变量值为可以自定义的数字,如果端口号被占用有冲突的问题,那么通过这个就可以修改端口号,一般不修改

综上所述,我们连续为ollama添加了4条环境变量,然后点“确定”,完成配置即可(根据自己实际情况添加)

注:每次更改环境变量之后,需要重启电脑,配置才会生效。

关于ollama的所有配置就全部完成,重启电脑,使配置的环境变量生效。

我们打开命令提示符,使用 win键+R键 输入 “cmd”打开命令提示符,下图所示,输入“ollama”然后回车,如果有下图所示的返回信息,就表示ollama没有问题了。

我们还可以通过打开浏览,在浏览器的地址栏输入“127.0.0.1:11434”后回车,看是否能访问,检验自己是否成功,如果显示不能!提示页面拒绝访问,解决方法是:修改环境变量配置。

3.下载并部署DeepSeek模型

Ollama支持多种DeepSeek模型版本,用户可以根据硬件配置选择合适的模型。

启动Ollama服务:
在终端运行命令启动Ollama服务:

ollama serve

进入ollama官网,在主页中点击“models”,然后看到一个就是deepseek-r1,直接点击进去。

输入以下命令下载并运行DeepSeek模型,后面的模型大小可以改成自己想要的

ollama run deepseek-r1:7b  # 7B版本
ollama run deepseek-r1:8b  # 8B版本
ollama run deepseek-r1:14b # 14B版本
ollama run deepseek-r1:32b # 32B版本

下载完成后,可以使用以下命令查看已下载的模型列表:

ollama list

然后通过下面命令运行模型:

ollama run deepseek-r1:14b

这将启动 DeepSeek 14B 模型,并进入交互式命令行界面,可以直接与模型对话。

4.可视化交互界面安装

虽然我们可以在本地使用 Deepseek 这个模型了,但这样交互界面未免不会太简陋.....这时我们就可以通过安装 Chatbox 这个可视化交互界面来改变这种情况。

1.打开Chatbox AI官网,点击免费下载,下载到本地之后直接点击安装即可

2.点击设置-显示 选择界面的语言

3.点击设置-模型,在模型提供方选择:Ollama API,

模型选择,选择之前安装的模型:deepseek-r1:14b,点击保存

4.本地测试

在开始测试之前,确保你的本地环境变量和Chatbox设置没有问题。这一步非常关键,没有问题话进行聊天测试,可以正常沟通的。

并且 ChatBox 还支持添加图片、文件、链接和联网查询,非常方便。到此我们可以使用自己的大模型了。

总结

本地部署Ollama,就像是在自己的电脑里藏了一个智能小精灵,随时听候差遣,再也不用担心网络卡顿或者服务器罢工了。而且,通过我们刚刚的检查和优化,你的Ollama肯定能跑得飞快,无论是处理复杂的自然语言任务,还是简单地问个问题,都能秒回。

希望这篇文章能帮你顺利搞定Ollama的本地部署,让你在学习、工作或者开发项目的时候,都能有个得力的助手👋

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐