一、前言

在保险行业数字化转型加速推进的背景下,大模型技术正逐步成为企业智能化升级的核心驱动力。DeepSeek 大模型允许企业免费进行商业部署和个性化二次开发,更通过模型架构优化大大降低模型训练推理成本。这种“技术开源+商业友好”的双重特性,有效破解了中小型保险公司长期面临的大模型应用成本高、部署门槛高、迭代周期长的现实困境,为中小险企在构建保险产品核心流程、营销运营、合规风控以及办公研发等 AI 应用提供了高性价比的技术底座,开辟了差异化竞争的创新路径。

二、主要难题与应对

DeepSeek 加速了中小险企落地大模型的进程,但实际落地过程中依然有一些难题需要解决,个人总结如下:

1、云端的数据安全问题

私有数据是企业的命脉,同时客户隐私数据保护更是金融机构必须遵守的底线。因此,对保险企业来说,云端的应用场景只能以公开数据为主。

然而,基于公开数据的大模型应用开发依然大有可为,一是可以梳理基于公开数据的业务需求,激发或部分替代原有的第三方数据服务;二是目前大模型的互联网应用生态还不完善,用户不具备智能体应用开发能力,各企业可结合内外用户需求做定制开发,以实现差异化的数字服务体验;三是整合企业已公开信息,通过新兴的智能体应用做营销引流,将这部分互联网业务流量导入到企业 APP 、营业网点等。

2、大模型私有部署问题

大模型私有化部署需高性能计算集群,硬件投入成本高昂,且国产化算力要求和技术迭代的影响,也让中小险企难以决策。

目前看,中小保险通过轻量化技术路径和资源整合,实现大模型私有化部署的可行性与经济性平衡,倾向于选择小参数量模型或租用外部算力做本地部署。

3、业务应用快速融入问题

大模型私有部署的投入高,但实际如何快速融入业务应用并发挥其应有价值是项目成败的关键。但专属企业级智能体需要能调用内部的系统、流程等,企业需要结合业务特点定制复杂端对端流程和插件、工具箱,也缺乏丰富灵活的集成方式,让智能体嵌入到已有的业务系统中。

目前看基于大模型的 Agent 应用框架能较好满足需求,大模型与 Agent 具有相当程度的互补性,大模型缺乏对外部环境的感知和操作工具,而 Agent 渐渐成为能补全这些劣势的框架。

三、智能体应用方案实践探讨

黄仁勋在 2025 年 CES 展的发布会上就指出 AI Agent 是未来的重要趋势,中国创业公司 Monica 发布的 Manus ,也展现了结合大模型的 AI Agent 的巨大潜力。目前大模型智能体应用框架主要分为 RAG 智能体应用框架和多智能体应用框架,下面结合实践做一些深入分析:

(一) RAG 智能体应用框架

RAG 智能体应用框架,又被称为大模型智能引擎。该框架需先构建以非结构化数据为基础的知识库,并通过向量数据库检索出问题相关的知识片段,最后由大模型做回答。如图 1 所示,可基于 RAG 智能体用于框架快速构建保险产品条款知识库问答系统。

图片

图1 保险产品条款知识库问答参考

该框架的优点是不完全依赖大模型能力,可以快速落地,通过高质量数据构建的知识库可以确保问答的准确率,因此可以降低大模型的算力需求。但缺点也很明显,如果是复杂问题,向量检索不能保证检索到的知识片段是足够的,而且不能发挥很好地发挥大模型能力;另外该应用形态较为独立的,不能很好地融入业务流程。

主要的调优手段:

1、做好数据清洗,构建一些常用问答数据,以提高知识库的数据质量;

2、提示词优化,指定回答要求,降低大模型幻觉;

3、Embedding 模型优化,提取关键词做检索,调整不合理的知识分段,混合检索等手段;

4、优化 RAG 流程,结合知识图谱内容做回答。

(二)多智能体应用框架

多智能体应用框架,又称为 AI 应用开发平台,是结合了工作流、 RAG 、智能体、插件工具和模型管理等功能,可以高效构建大模型应用,可看作 RAG 智能体框架的增加版。

字节的扣子 Coze 平台、百度的千帆平台部署在云端,云厂商也提供了 HiAgent 这样的企业专属 AI 应用开发平台,还有开源的 Dify 平台也能较好满足企业内部部署需求,对比如下表:

图片

表1 AI 应用开发平台的对比分析

对保险行业来说,客户服务非常重要,但保险服务本身与客户的粘性不足。综合行业特性和中小险企实际需求来看,可选择单一平台或组合方案,如尝试从 Coze 平台切入客服等 C 端交互场景,逐步扩展至内部核心场景。

1、Coze 平台的实践探索案例

扣子平台提供了丰富的插件和可参考模板,用户可以快速实现大模型应用,并便捷发布到扣子商店、豆包及微信公众号。

以构建智能客服助手为例,如果缺乏智能体应用经验,也可参考制官方模板。对于智能客服来说,应用需要根据用户不同的问题去匹配不同的处理方案,比如可能需要查询来自客服、产品等类型的知识库,可能需要提供一份投保建议,可能需要调用搜索插件,甚至是投诉需要安抚等,最后所有工作流处理信息还需要保存下来。当然,由于数据隐私和 AI 生成的不确定性,对金融行业来说,基于 coze 的智能客服助手的主要作用是强化客户交互和服务引流,最终引导客户通过线上 APP 或线下营业网点进行深入交流。

因此,参考 coze 工作流主要步骤:用户输入 → 关键词提取 → 大模型意图识别 → 选择分支 → 分支 1 产品推荐、分支 2 客服服务、分支 3 投保建议、分支 4 网络搜索、分支 5 客户安抚 → 将用户问题和回复进行保存,如图 2 所示。

图片

图2 智能客服工作流示意图

上述工作流是 coze 智能体应用的核心,基本实现智能客服的功能,另外在构建智能体页面还可进一步配置开场问题、添加插件、调整提示词等。

另外,在应用场景方面, coze 还可以通过整合网络公开信息,实现舆情分析、投研分析等;在应用构建方面, coze 通过低代码组件,可以实现 PC 、手机小程序应用的快速构建,如图 3 所示。

图片

图3 手机小程序应用构建示意图

2、Dify平台的实践探索案例

Dify 平台也提供了很多社区模板,支持导入 DSL 文件的方式创建应用,支持自定义工具,工作流的使用方法与 coze 接近,这部分重点探讨 AI Agent 创建的重要组件。

( 1 )代码执行

Dify 的代码执行组件主要用于数据结构化处理和简单的运算,使用 sandbox 执行代码,不能执行访问文件系统、进行网络请求、执行操作系统级别的命令。

Deepseek-R1 大模型的输出包括模型思考和结果回答两部分内容,如图 4 所示,通过代码执行模块,可以将大模型的输出处理为模型思考和结果回答两个变量,从而支持 AI Agent 的构建。

图片

图4 代码执行 - 格式输出示意图

( 2 ) HTTP 请求

Dify 的 HTTP 请求工具可以用于打通与外部系统的连接,向现有系统发起请求,让 dify 具备融合业务系统功能的可能性,如图 5 所示。

图片

图5 DIfy 中 HTTP 请求示意图

另外 HTTP 请求配合代码执行的工作流也可以进一步封装成工具,实现功能复用。

( 3 ) LLM Agent 组件

LLM Agent 是大模型借助传感器感知其环境并通过执行器执行的组件,主要包括记忆、工具和计划。

Dify 中 LLM Agent 组件包含 FunctionCalling 、 ReAct 两种策略,如图 6 所示。FunctionCalling 策略是通过识别用户意图,然后调用特定工具来执行特定任务;ReAct 策略是将链式思考与规划操作结合的技术,通过提示词引导大模型以循环的方式进行思考、行动和观察,以提升大模型在特定任务上的表现。

请添加图片描述

图6 DIfy 中 Agent 示意图

( 4 )实践案例 - 应用设计设计

DIfy 内部应用场景更加丰富,需要充分挖掘。如图 7 所示,设计一套工作流可让大模型按要求生成保险计划书,工作流主要包括资料收集、客户画像分析、主副险推荐和格式化输出等步骤。

请添加图片描述

图7 Dify 应用设计示意图

四、总结

DeepSeek 大模型通过开源技术与轻量化路径,为中小险企提供了高性价比的技术底座。借助 Coze 、 Dify 等平台,可快速构建知识库、集成插件化工具,加快大模型与保险业务的融入,快速发现应用场景价值。对于重点应用场景,结合多 Agent 能力可重点优化,提升应用效能。

未来,随着 AI Agent 技术的成熟,中小险企应聚焦大模型成本与数据安全,强化业务场景与智能体的端到端融合,借助生态合作(如联合云服务商、第三方开发者)加速应用迭代。最终,以“小步快跑”策略实现大模型从辅助工具到核心生产力的跃迁,在差异化竞争中抢占先机。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐