第三节:RAGFlow基于本地部署的DeepSeek模型简单配置
·
一、说明
- 本章节介绍利用RAGFlow配置本地部署的DeepSeek
- 老样子, 无废话, 直接开干
- 基于《第二节:RAGFlow基于CentOS系统在Docker自定义安装部署》进行操作
二、开始配置
- 登录系统进入主界面
- 进入设置界面
- 概要设置
- 上传头像
- 设置中文
- 保存
- 概要设置
- 模型提供商设置
- 点击模型提供商
- 找到ollama添加模型
-
添加自己部署的模型
- 模型类型选择chat, 应为是用于对话
- 模型名称, 填写 ollama ls 列表查询出来的结果, 参照第一节:DeepSeek基于CentOS虚拟机部署, 填写deepseek-r1:70b
- 基础url, 填写ollama部署物理机器地址和端口
- 最大token数, 如果模型支持, 且有特定长文本要求, 可以填写大一些, 我这里填写通用大小4096
[root@localhost software]# ollama ls NAME ID SIZE MODIFIED deepseek-r1:70b 0c1615a8ca32 42 GB 3 weeks ago
- 点击确定, 保存
- 在添加了的模型中, 可以看到已经添加的模型
三、聊天设置
- 新建聊天助理
- 第一步点击聊天
- 第二步点击新建助理
- 第三步在聊天配置中填写相关信息
- 助理名称, 自己填写
- 助理头像, 自己上传
- 提示引擎暂时保持不变
- 模型设置重要
- 需要设置刚刚配置的ollama里面安装的deepseek模型
- 配置成功
- 第一步新增聊天
- 第二步, 就可以开始聊天了
- 至此非常基础的RAGFlow配置本地的deepseek就完成了, 后续章节在做调优
更多推荐
所有评论(0)