一、说明

  1. 本章节介绍利用RAGFlow配置本地部署的DeepSeek
  2. 老样子, 无废话, 直接开干
  3. 基于《第二节:RAGFlow基于CentOS系统在Docker自定义安装部署》进行操作

二、开始配置

  1. 登录系统进入主界面

image-20250318094947892

  1. 进入设置界面
    • 概要设置
      • 上传头像
      • 设置中文
      • 保存

image-20250318095115364

  1. 模型提供商设置
    • 点击模型提供商
    • 找到ollama添加模型

image-20250318095252961

  1. 添加自己部署的模型

    • 模型类型选择chat, 应为是用于对话
    • 模型名称, 填写 ollama ls 列表查询出来的结果, 参照第一节:DeepSeek基于CentOS虚拟机部署, 填写deepseek-r1:70b
    • 基础url, 填写ollama部署物理机器地址和端口
    • 最大token数, 如果模型支持, 且有特定长文本要求, 可以填写大一些, 我这里填写通用大小4096
    [root@localhost software]# ollama ls
    NAME                                         ID              SIZE      MODIFIED      
    deepseek-r1:70b                              0c1615a8ca32    42 GB     3 weeks ago 
    

image-20250318095820961

  • 点击确定, 保存
  • 在添加了的模型中, 可以看到已经添加的模型

image-20250318095920315

三、聊天设置

  1. 新建聊天助理
    • 第一步点击聊天
    • 第二步点击新建助理
    • 第三步在聊天配置中填写相关信息
      • 助理名称, 自己填写
      • 助理头像, 自己上传

image-20250318100753938

  1. 提示引擎暂时保持不变
  2. 模型设置重要
    • 需要设置刚刚配置的ollama里面安装的deepseek模型

image-20250318101238427

  1. 配置成功
    • 第一步新增聊天
    • 第二步, 就可以开始聊天了

image-20250318101536180

  1. 至此非常基础的RAGFlow配置本地的deepseek就完成了, 后续章节在做调优
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐