一分钟实现DeepSeek本地部署超级详细教程来了,仅需三步就可以轻松实现

目录

一、安装Ollama

二、安装 DeepSeek模型

三、搭建可视化界面

1.安装docker

2.安装OpenWebUI

3.下载Ollama大模型到OpenWebUI(deepseek-r1:1.5b)

一、安装Ollama

        我们去Ollama或Google搜索进入下载页面,页面会根据操作系统自动适配下载的安装包,点击Download按钮完成下载和安装

二、安装 DeepSeek模型

我这里选择的是DeepSeek-R1的1.5B模型deepseek-r1DeepSeek's first-generation of reasoning models with comparable performance to OpenAI-o1, including six dense models distilled from DeepSeek-R1 based on Llama and Qwen.https://ollama.com/library/deepseek-r1

 

三、搭建可视化界面

对大多数使用者来说,使用命令行还是很不方便的,下面就来讲讲可视化界面的搭建过程

1.安装docker

地址:Docker: Accelerated Container Application Development

安装完成后如下图,在进行下一步操作前先启动docker

2.安装OpenWebUI

访问官网查看安装指南(🏡 Home | Open WebUI),因为我们已经安装了Ollama,我们使用第一条命令来安装,命令如下:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装完成后,docker界面会出来openwebui的详情

 这样就可以通过这个地址进入到网页版的OpenWebUI了(http://localhost:3000/

3.下载Ollama大模型到OpenWebUI(deepseek-r1:1.5b)

然后因为没有选择大模型,所以我们要从刚才在刚才在Ollama中拉取的下载到此环境

 安装速度特别慢,安装成功后就可以使用deepseek大模型了,具体如下:

下面会继续发布DeepSeek与各种主流软件的协同,包括各种编译器、微信、以及私人AI助手 

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐