效果

在这里插入图片描述

TFChat项目地址

https://github.com/fish2018/TFChat

腾讯大模型知识引擎用的是DeepSeek R1,项目为sanic和redis实现,利用httpx异步处理流式响应,同时使用buffer来避免频繁调用飞书接口更新卡片的网络耗时。为了进一步减少网络IO消耗,首次调用飞书相关接口会从redis读取token,后续直接从TokenManager对象属性获取,只有token失效时间小于60s时才会重新调用飞书接口获取。

实现思路

1.创建好腾讯大模型知识引擎应用和飞书应用并启用机器人能力,配置事件订阅
2.用户发送消息给机器人后,会post数据给我们的webhook接口
3.webhook接收到数据后解析出用户的open_id和发送给机器人的content
4.初始化消息卡片实例
5.发送消息卡片给该用户
6.调用腾讯大模型知识引擎的HTTP SSE接口,提交用户发送给机器人的content
7.接收HTTP SSE数据,调用飞书接口流式更新文本

参考资料

腾讯大模型知识引擎

创建应用

参考官方文档操作即可:
https://cloud.tencent.com/document/product/1759/104201

腾讯大模型知识引擎>应用接口文档>对话端接口文档(HTTP SSE)

https://cloud.tencent.com/document/product/1759/105561

飞书机器人

创建应用

https://open.feishu.cn/document/home/develop-a-gadget-in-5-minutes/create-an-app

启用机器人能力

https://open.feishu.cn/document/faq/trouble-shooting/how-to-enable-bot-ability

飞书卡片流式更新 OpenAPI 调用指南

https://open.feishu.cn/document/uAjLw4CM/ukzMukzMukzM/feishu-cards/streaming-updates-openapi-overview

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐