开年来Deepseek热度飙升。

博主计划出一期关于Deepseek的专题文章,以实际操作的第一视角来讲解docker+dify+ollama+deepseek系列应用。一是在本地的电脑或服务器上部署自己的大模型和知识库。二是将AI对自然语言理解、推理能力和知识库的标准化的能力接入到我们自己应用系统。

喜欢动手的小伙伴们欢迎点赞关注,如有疑问欢迎在评论区留言或联系博主。

第一步:部署基础环境

访问Docker官方网站 https://www.docker.com/

图片

进入软件下载界面。

图片

根据自己电脑操作系统选择下载安装包,我电脑是windows系统,因此下载Windows的Docker Desktop 是 Docker 在 Windows 10  操作系统上的官方安装方式,这个方法依然属于先在虚拟机中安装 Linux 然后再安装 Docker 的方法)。

安装 Hyper-V

Hyper-V 是微软开发的虚拟机,类似于 VMWare 或 VirtualBox,仅适用于 Windows 10。这是 Docker Desktop for Windows 所使用的虚拟机。

这个虚拟机一旦启用,QEMU、VirtualBox 或 VMWare Workstation 15 及以下版本将无法使用!如果你必须在电脑上使用其他虚拟机(例如开发 Android 应用必须使用的模拟器),请不要使用 Hyper-V。

开启 Hyper-V,进入系统控制面板>程序>启用或关闭Windows功

能。

图片

图片

选中Hyper-V,启用。

图片

也可以通过命令来启用 Hyper-V ,请右键开始菜单并以管理员身份运行 PowerShell,执行以下命令:

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Hyper--All

安装 Docker Desktop for Windows。

运行下载的安装包,一路 Next,点击 Finish 完成安装。

安装完成后,Docker 会自动启动。通知栏上会出现个小鲸鱼的图标,这表示 Docker 正在运行。

如果启动中遇到因 WSL 2 导致错误,请安装 WSL 2

安装之后,可以打开 PowerShell 并运行以下命令检测是否运行成功:

docker run hello-world

在成功运行之后应该会出现以下信息:

图片

Docker 镜像加速。

国内从 DockerHub 拉取镜像有时会遇到困难,此时可以配置镜像加速器。

目前国内 Docker 镜像源出现了一些问题,基本不能用了,后期能用我再更新下。

对于使用 Windows 10 的系统,在系统右下角托盘 Docker 图标内右键菜单选择 Settings,打开配置窗口后左侧导航菜单选择 Daemon。在 Registrymirrors 一栏中填写加速器地址 https://docker.mirrors.ustc.edu.cn/ ,之后点击 Apply 保存后 Docker 就会重启并应用配置的镜像地址了。

图片

第二: 安装dify

登录网址 https://github.com/langgenius/dify点击Dnowload ZIP。下载到本地并解压。注意: 在本地的保存路径尽量不要有中文字符。

windows进入powershell(不是CMD)。进入dify解压包下面的docker目录,分别执行下面两条命令

cp .env.example .env
docker -compose up -d

docker会拉取dify进行下载

大概时间20分钟左右。下载完成

重启docker 桌面软件,在containers中能看到docker的这个image,表示Dify下载成功。Status显示Running表示正在运行。

第三步: 本地化部署deepseek

这里我们通过ollama进行DeepSeek本地部署。

登录官网:https://ollama.com/

点击Download进行下载。然后选择Windows版本,安装包有700多M。下载速度不是很稳定。下载速度慢的可以加我v,给网盘链接。

图片

下载完后,点击安装。
注意:ollama默认安装到C盘。

安装完成后,打开命令终端

然后运行命令

ollama -v

出现如下的界面表示ollama安装成功。

图片

在ollama官网上选择Models,找到deepseek点击进去。

图片

deepseek-r1有1.5b,7b,8b,14b,32b,70b,671b的选择

图片

何评估自己电脑能跑哪个模型呢,每个版本需要的显存大小都在右边有显示

图片

我电脑GPU内存是16GB,我选择的是14b版本。

图片

点击按钮进行命令复制

图片

在命令终端中运行命令

ollama run deepseek-r1:14b

等待下载安装完成,就可以本地和deepseek进行对话了

图片

同时在ollama中搜索bge-m3。点击进入后复制命令,在命令窗口中执行复制的命令进行下载。

图片

第三步: dify配置大模型

访问http://localhost/signin
来到dify的登录界面进行登录

图片

在模型供应商中找到ollama,点击添加大模型

图片

基础URL填 http://host.docker.internal:11434(ollama部署地址),模型名称输入刚刚安装的“deepseek-r1:14b”,其他的都不变,点击保存。

图片

基础URL填 http://host.docker.internal:11434(ollama部署地址),模型名称输入刚刚安装的“bge-m3”,其他的都不变,点击保存。

图片

这里可以看到我已经添加的两个模型了。

图片

第四步: 搭建知识库

进入Dify的主界面,点击知识库。创建新的知识库,上传文档,点击下一步

图片

图片

知识库的配置可以采用默认的,预览块可以右侧查看文本分段清洗情况,拖到最下面点击保存并处理。

图片

会进行知识库的创建,显示“嵌入已完成”,代表知识库导入创建完成。

图片

第五步: 应用创建

在工作室中创建空白应用

图片

在聊天界面中点击添加上下文,也就是你创建的知识库。

在右边的对话框中输入,大模型会根据知识库进行查询。在最后的界面中能看到引用自刚才创建的知识库文件。

图片

调试差不多了,点击右上角发布。

图片

点击运行。

图片

完成。

----------

开年现象级AI应用Deepseek引发技术圈震动!为帮助开发者掌握前沿AI部署能力,笔者将推出深度实战专栏《Docker+Dify+Ollama+Deepseek全栈应用指南》,带您亲历三大核心技术突破:

🚀 核心模块一:私有化智能中枢搭建

  • 基于Docker容器化部署,实现大模型+知识库的本地安全运行

  • 详解Ollama框架集成策略,构建企业级AI推理引擎

  • 开源部署避坑指南:从环境配置到效能调优全解析

💡 核心模块二:智能能力标准化输出

  • 自然语言理解(NLU)接口封装实战

  • 多模态知识库对接企业系统的5种范式

  • 自动化推理能力迁移方案(附SpringBoot/Django案例)

本系列独创"开发日志"式教学,完整重现笔者在部署过程中:
✔️ 遇到的17个典型报错及解决方案
✔️ 性能优化对比测试数据表
✔️ 企业级安全加固checklist

适合人群:全栈开发者/AI产品经理/技术负责人
技术栈全景:Docker→Ollama→Dify→Deepseek→RestfulAPI

现在关注微信公众号“地知通”,即可获取:
👉 专栏首发推送提醒
👉 配套部署脚本
👉 1v1技术咨询通道

您在本地化部署AI过程中遇到哪些挑战?欢迎在评论区留下您的问题或应用场景,笔者将选取典型问题在专栏中专项解答!让我们共同探索企业级AI落地最后一公里⛽️

敬请关注我们的公众号,更多精彩内容等你来发现!

声明:转载此文不为商业用途。文字和图片版权归原作者所有,若有来源标注错误或侵犯了您的合法权益,请与我们联系,我们将及时处理,谢谢。

DeepSeek时代,如何成为驾驭算法的“数字地理学家”

2024年全国建筑轮廓矢量数据下载

全国poi/路网/建筑/水系..(附下载地址)

如何快速下载poi兴趣点数据(附下载工具)

0.5m卫星影像(Esri影像、天地图、星图)、DEM

注册测绘师资格考试备考建议 | 附30GB学习资料

AutoCAD如何加载在线/离线遥感影像地图

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐