DeepSeek本地部署(DeepSeek服务器繁忙解决方案)
DeepSeek本地部署(DeepSeek服务器繁忙解决方案)
前言
最近DeepSeek非常火爆,也非常好用但用的人实在太多了,以至于经常服务器繁忙。那有没有解决方案呢,当然是有的:本地部署
下面正文开始:
这里有两种方式部署,可以选择通过 整合包方式进行部署,也可以选择下面手动分步安装部署
如果是window且担心版本问题的,建议使用下面的整合包进行部署。包内有个一键部署脚本可以省点事。
方式一:一键包部署
1.5b版本下载包:https://pan.quark.cn/s/927f22928b95
7b版本下载包:https://pan.quark.cn/s/74b3b54c2c04
里面整合了下window系统要安装的应用
按照图中顺序安装:
1、打开OllamaSeyup.exe,安装Ollama
2、双击运行“一键部署模型.bat”脚本
3、打开Chatbox-1.9.5-Setup.exe,安装Chatbox
4、打开Chatbox AI配置模型
最后点击保存
至此,就成功完成DeepSeek的本地部署了
方式二:手动分步安装
一、安装ollama
Ollama 是一个让你在本地设备上运行大型语言模型的平台。它不依赖远程服务器,而是让你在自己的机器上运行这些模型,提供更好的控制和隐私保护。并且内置了多款大模型,可以很方便的下载和管理模型。
下载地址:https://ollama.com/download
打开OllamaSetup.exe安装程序,然后点击“install”按钮进行安装
二、拉取DeepSeek模型
访问 https://ollama.com/library/deepseek-r1
选择要拉取的模型,注意看是否有足够的内存。然后复制拉取指令
修改模型的安装位置(可选)
默认情况,模型会安装到C:\Users\用户名.ollama,为避免占用c盘太多空间,建议安装到其他盘,不需要修改安装位置可直接跳过这步操作
具体操作
1、打开系统属性添加 环境变量 OLLAMA_MODELS ,变量值添加修改后的安装位置
2、重启ollama
继续刚才的拉取操作
打开系统的PowerShell或者命令行,黏贴刚才复制的拉取指令并回车,等它慢慢下载
模型下载完后就可以开始使用了
三、安装Chatbox AI并配置模型
上面我们已经可以通过命令行进行ai问答了,但通过本地命令行可能不太方便,这时就可以借助Chatbox AI
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
下载并安装后,打开Chatbox AI配置模型
最后点击保存
至此,就成功完成DeepSeek的本地部署了
文末彩蛋!!(粉丝福利)
DeepSeek使用技巧大全.rar:https://pan.quark.cn/s/6e769f336d4b
更多推荐
所有评论(0)