从0-1带你用Ollama+DeepSeek+Docker+RAGFlow搭建个人专属知识库问答系统
通过以上步骤,已经成功在本地搭建了一个基于RAGFlow的智能问答系统。从环境准备到模型配置,再到知识库的创建和问答测试,每一步都至关重要。RAGFlow的强大功能不仅体现在其高效的问答能力上,还体现在其对多种数据格式的支持和灵活的配置选项上。我的DeepSeek部署资料已打包好(自取↓)
RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。
一、环境准备
1.1 安装Docker
Docker是RAGFlow运行的基础环境,我本地使用的Windows10系统,可以通过WSL2(Windows Subsystem for Linux 2)来安装Docker。
使用WSL2安装Docker
-
更新WSL并安装Ubuntu系统
打开命令提示符(以管理员身份运行),执行以下命令来更新WSL并安装Ubuntu 22.04系统:
wsl --update wsl --install Ubuntu --web-download
-
安装Docker
在WSL环境下,按照Docker官方文档进行安装。访问 Docker官网,https://docs.docker.com/desktop/setup/install/windows-install/下载win系统下的最新安装包Docker Desktop Installer.exe,安装包下载完成后,就是双击安装即可。
1.2 配置Docker国内镜像源
由于国内网络环境的特殊性,直接从Docker Hub拉取镜像可能会比较慢。因此,我们需要配置国内的Docker镜像源来加速镜像的下载。
配置方法
{
"registry-mirrors": [
"https://docker.hpcloud.cloud",
"https://docker.m.daocloud.io",
"https://docker.unsee.tech",
"https://docker.1panel.live",
"http://mirror.azure.cn"
]
}
重启Docker服务
保存文件后,执行以下命令重启Docker服务:
sudo systemctl daemon-reload
sudo systemctl restart docker
二、安装RAGFlow
2.1 下载RAGFlow源码
RAGFlow的源码托管在GitHub和GitCode上,你可以根据自己的网络情况选择合适的地址进行下载。
- GitHub地址:https://github.com/infiniflow/ragflow
- GitCode地址:https://gitcode.com/gh_mirrors/ra/ragflow
使用以下命令克隆仓库:
git clone https://github.com/infiniflow/ragflow.git
2.2 启动RAGFlow服务
-
进入项目目录
cd ragflow/docker
-
修改.env文件
打开
.env
文件,找到RAGFLOW_IMAGE
变量,将其值从infiniflow/ragflow:v0.17.2-slim
修改为infiniflow/ragflow:v0.17.2
,以使用包含embedding模型的镜像。 -
启动服务
进入ragflow-main\docker目录下执行以下命令启动RAGFlow服务:
docker compose -f docker-compose.yml up -d
如果你的机器支持GPU加速,可以使用以下命令启动服务:
docker compose -f docker-compose-gpu.yml up -d
-
检查服务状态
三、配置OLLAMA模型
3.1 安装OLLAMA
在本地安装OLLAMA模型时,需要注意配置环境变量OLLAMA_HOST
,否则其他应用可能无法通过IP地址访问。在系统的环境变量中添加
OLLAMA_HOST:0.0.0.0:11434
3.2 在RAGFlow中添加OLLAMA模型
-
登录RAGFlow
打开浏览器,输入你的http://localhost:80地址,进入RAGFlow登录界面。首次登录需要先注册用户,再进行登录
添加OLLAMA模型
在RAGFlow中添加OLLAMA模型时,一定要使用物理地址IP(如192.168.xxx.xxx
),而不是127.0.0.1
或localhost
。否则可能会报错报错Fail to access model(deepseek-r1:1.5b).ERROR: [Errno 111] Connection refused。
例如,添加模型的地址应为http://192.168.xxx.xxx:11434
。
这个问题的根本原因在于 Docker 容器的网络隔离机制,当 RAGFlow 尝试访问 http://127.0.0.1:11434 时,它实际上是在尝试连接容器自身的 127.0.0.1,而不是宿主机上的 Ollama 服务。
配置系统模型
四、配置知识库与问答
4.1 新建知识库
-
上传知识文档
在RAGFlow管理界面中,新建知识库,并上传相关的知识文档。这些文档可以是Word、PPT、Excel、PDF等多种格式。
-
创建助手
创建一个助手,并将助手与知识库关联起来。这样,助手在回答问题时就可以引用知识库中的内容。
4.2 进行问答测试
-
未添加知识库的问答
在未添加知识库的情况下,助手的回答可能仅基于预训练模型的知识,无法引用具体的知识文档。
-
添加知识库后的问答
将助手与知识库关联后,再次进行问答测试。此时,助手的回答会更加准确,并且能够引用知识库中的具体内容。
五、总结
通过以上步骤,已经成功在本地搭建了一个基于RAGFlow的智能问答系统。从环境准备到模型配置,再到知识库的创建和问答测试,每一步都至关重要。RAGFlow的强大功能不仅体现在其高效的问答能力上,还体现在其对多种数据格式的支持和灵活的配置选项上。
我的DeepSeek部署资料已打包好(自取↓)
https://pan.quark.cn/s/7e0fa45596e4
但如果你想知道这个工具为什么能“听懂人话”、写出代码 甚至预测市场趋势——答案就藏在大模型技术里!
❗️为什么你必须了解大模型?
1️⃣ 薪资爆炸:应届大模型工程师年薪40万起步,懂“Prompt调教”的带货主播收入翻3倍
2️⃣ 行业重构:金融、医疗、教育正在被AI重塑,不用大模型的公司3年内必淘汰
3️⃣ 零门槛上车:90%的进阶技巧不需写代码!会说话就能指挥AI
(附深度求索BOSS招聘信息)
⚠️警惕:当同事用DeepSeek 3小时干完你3天的工作时,淘汰倒计时就开始了。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?老师啊,我自学没有方向怎么办?老师,这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!当然这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!
更多推荐
所有评论(0)