零基础AI开发系列教程:RagFlow本地部署和使用
RagFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation,检索增强生成)引擎。它的设计核心在于将大量复杂格式的非结构化数据(如 PDF、Word、PPT、Excel、图片、网页等)经过智能解析,转换为高质量的“知识片段”,再通过大语言模型(LLM)进行增强生成,从而实现准确、可控且有据可依的问答服务
RagFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation,检索增强生成)引擎。它的设计核心在于将大量复杂格式的非结构化数据(如 PDF、Word、PPT、Excel、图片、网页等)经过智能解析,转换为高质量的“知识片段”,再通过大语言模型(LLM)进行增强生成,从而实现准确、可控且有据可依的问答服务
📋 先决条件
- 安装并启动了Docker、Ollama(没有安装的可以参考之前的教程)
📖 开始部署
1. 下载RagFlow
方式1:通过git克隆的方式下载,需要安装了Git。
git clone https://github.com/infiniflow/ragflow.git
方式2:直接访问github下载.ZIP压缩包,下载后解压。
https://github.com/infiniflow/ragflow
2. 修改一些配置
打开 ragflow里docker下的.env 文件,该文件主要用于配置RagFlow的各种环境变量
搜索 myhuaweicloud,这里有两处,将后面这一行的注释放开,修改后保存
默认端口为80,为避免与其他应用端口冲突,修改端口:ragflow/docker/docker-compose.yml
将 80 修改为 8000 ,将 443 修改为8443,修改后保存
3. 使用Docker安装RagFlow
在ragflow/docker目录下,执行:
cd D:\ProgramFiles\ragflow\docker # 这里换成你自己的目录
docker compose up -d
耐心等待镜像下载,全部下载好后,容器都是运行状态则正常。
登录RagFlow
运行成功后,浏览器访问:http://localhost:8000/login
首次登录需要先点击Sign up注册账号
填写任意邮箱,昵称,密码,点击Continue注册,然后点Sign in 用创建的邮箱密码登录
登录后页面如下,点击右上角可以设置语言
配置模型
1. 获取API Key
如果是个人学习、开发使用,可以使用硅基流动提供的或者使用自己本地部署的大模型。硅基流动提供多种大模型可供调用,包括当下流行的DeepSeek-R1,DeepSeek-V3、QwQ-32B、BGE-M3 等等
目前注册可以免费领取2000万token,用来学习基本也够了
官方注册地址
输入手机号、短信验证码,登录即可,没有注册过会自动注册
API密钥 -> 新建 API 密钥。将新建好的密钥妥善保管
2. 添加模型供应商
右上角头像 -> 模型供应商 -> 添加模型
将之前建好的 API 密钥填入,点击确定
3. 系统模型设置
设置好后点击确定
添加知识库
知识库 -> 创建知识库
输入知识库名称,点击确定
数据集 -> 新增文件 -> 本地文件
数据集需要解析后才能用于回答。可以勾选创建时解析,也可以上传后再解析,这里我们勾选创建时解析
默认是上传文件,也可以上传文件夹。点击下方区域选择要上传的文件,点击确定
解析中,等待解析成功
测试
聊天 -> 新建助理
输入助理姓名、选择知识库
新建聊天,在聊天框输入问题测试知识库,可以看到引用了知识库的内容。
至此,RagFlow的部署就初步使用就介绍完了
🔥《零基础小白AI实战教程:手把手教你打造专属的智能体》🚀 系列教程更新中!
✅ 已更新:AI实践虚拟化平台安装
✅ 已更新:Docker Desktop 安装
✅ 已更新:Ollama安装教程
✅ 已更新:DeepSeek私有化部署
✅ 已更新:Dify私有化部署
✅ 已更新:Dify + DeepSeek搭建本地私有化知识库
✅ 已更新:Dify应用类型的选择
✅ 已更新:Dify升级指南
✅ 已更新:Dify节点的详细介绍(上)
✅ 已更新:Dify节点的详细介绍(中)
✅ 已更新:Dify节点的详细介绍(下)
✅ 已更新:RagFlow本地部署和使用
👉 搜索"北灵聊AI"获取最新更新,免费领取教程资料和源码
更多推荐
所有评论(0)