这两天一直在研究deepseek相关的东西,下面是之前帖子的传送门:

Windows系统安装docker(含网盘下载链接)-CSDN博客

本地部署deepseek (ollama简单使用方法,含网盘下载链接)-CSDN博客

通过ollama(modelfile)微调deepseek,制作自己的大模型-CSDN博客

在网上冲浪的了一段时间后,发现网上很少有Linux服务器使用ollama+open-webui来部署deepseek的。然后今天我来做一个相关的教程,我使用的系统是centos7的系统,用其他系统也一样照猫画虎就可以,比如用Ubuntu就把指令中yum换成apt。

使用Linux服务器部署也是十分方便,可以公网访问,使用4核心4g的云服务器就可以跑deepseek-r1:1.5b版本。如果安装中出现网络问题可以用下面的包↓↓↓

open-webui镜像,Windows的docker也可以用找个镜像:(访问密码:7360)

https://url57.ctfile.com/f/45223957-1459296034-f2bf35?p=7360

ollama Linux离线安装包:(访问密码:7360)

https://url57.ctfile.com/f/45223957-1459297906-ca2a84?p=7360

部署教程:

首先运行下面指令在服务器上安装ollama,安装慢的话可以找个代理服务器或者离线安装教。

curl -fsSL https://ollama.com/install.sh | sh

如果安装出现网络问题可以用上面的离线安装包按照官方文档进行手动安装 。

下面是官方的安装文档,我就不演示了。

ollama/docs/linux.md at main · ollama/ollama · GitHub

 如果出现CPU-only代表你得环境下只能用cpu去跑大模型

 下载deepseek-r1:1.5b模型

ollama pull deepseek-r1:1.5b

然后修改ollama的配置文件,在service下添加 

sudo vi /etc/systemd/system/ollama.service


Environment="OLLAMA_HOST=0.0.0.0" #添加

添加完要 重启reboot一下 

open-webui要用到docker,接下来安装docker

sudo yum update -y

yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

sudo yum install docker-ce docker-ce-cli containerd.io -y

docker安装完成后启动docker并设置开机自启

sudo systemctl start docker

systemctl enable docker

接下来拉取webui的镜像

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

#3000可以改成你要设置的端口

镜像下载失败就用网盘的镜像上传到服务器根目录然后导入docker

cd /

docker load -i webui.tar 

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

#3000换成你自定义的端口

 镜像启动后运行docker ps查看容器是否成功启动

然后访问IP:端口 就可以访问了,之后输入信息创建用户

 

开启联网搜索: 

 点击右上角进入管理员面板,然后设置如图参数点击保存即可。

(条件允许的话可以用好一点的搜索引擎)

返回首页即可发现有了联网搜索的选项。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐