无穹玩法专栏旨在探索AI应用的无限可能,借助无问芯穹大模型服务平台(GenStudio)提供的高性能推理加速API,推动创新加速。

本文将围绕MCP协议及其在Dify平台中结合无问芯穹大模型服务平台(GenStudio)推理加速API,打造功能强大的个人超级助手,展示MCP协议如何统一多工具调用,提升AI应用的智能化和效率。

MCP协议简介

MCP(模型上下文协议) 是由Anthropic提出的开放标准协议,旨在打破AI模型与外部数据源、工具之间的壁垒,实现统一、标准化的双向交互接口。它让AI模型像使用“USB-C接口”一样,轻松调用各种外部服务和工具,极大提升开发效率和应用灵活性,

无问芯穹大模型服务平台(GenStudio)提供高性能推理加速API,资源充足,确保 AI 应用的智能、稳定性。涵盖DeepSeek V3/R1、QWQ32B、Qwen2.5-VL等最新模型,支持文本、图像、视频等多种模态,以及Jina/bge等sota嵌入、重排模型等。在 cloud.infini-ai.com 完成注册后,可无门槛使用基础免费版(含API调用),其中QWQ-32B等模型支持 function call。

结合MCP协议,无问芯穹模型推理加速API不仅提升AI应用的推理速度,还能无缝调用多种外部工具,实现复杂任务的智能协作,极大拓展AI应用场景。

环境准备与插件安装

1、访问Dify平台

访问Dify控制台(https://cloud.dify.ai/apps)搭建工作空间,配置无问芯穹大模型服务平台(GenStudio)的API Key,完成模型服务接入。

a.在 Dify 控制台,点击右上角头像,点击设置。

b.在左侧点击模型提供商,找到无问芯穹。

c.等待插件安装完成后,为插件配置无问芯穹大模型服务平台(GenStudio) API Key。

d.在 Dify 系统模型设置中配置无问芯穹大模型服务平台(GenStudio)提供的模型。

2、安装mcp_server插件

在Dify插件市场搜索“MCP SSE”插件,点击安装

获取外部MCP服务

  • 高德地图MCP服务 

在高德地图开放平台(https://lbs.amap.com/api/mcp-server/create-project-and-key)注册应用,完成实名认证,获取MCP服务器密钥,用于地图和天气数据调用。

  • Zapier MCP服务

通过Zapier MCP平台,可以获取集成7000+应用的MCP Server URL,支持邮件、搜索、CRM等多种操作,极大丰富助手功能。这里我们展示获取搜索服务,可以依次注册→点击生成网站,并复制URL→点击编辑MCP操作→添加新操作→新增搜索Tavily服务

搭建个人MCP Agent超级助手

1、创建Agent应用

在Dify工作室中新建Agent类型应用,例如命名为“超级助手”。

2、配置Agent助手

  • 设置提示词,定义助手交互逻辑。

  • 添加工具「MCP SSE」,分别添加获取MCP工具列表和调用MCP工具,分别配置高德地图MCP服务和Zapier MCP服务,按以下格式填写对应的URL。

  • 选择无问芯穹推理加速模型服务,确保高效智能推理。

在添加工具这个步骤中,依次设置2个mcp server服务的URL,sever_name1对应高德地图MCP服务,需将URL中的key替换为前置步骤获取的KEY;server_name2对应Zapier MCP服务,需将url替换为前置复制的URL。

{  "server_name1": {    "url": "https://mcp.amap.com/sse?key=前面步骤获取的高德KEY",    "headers": {}, "timeout": 60,    "sse_read_timeout": 300  }, "server_name2": {    "url": "https://actions.zapier.com/mcp/sk-"}}

3、测试Agent功能

  1. 通过对话测试地图和天气查询功能,Agent都成功调用了对应的MCP服务,实现地图和搜索服务。

a.地图MCP服务测试

如图所示,模型调用地图MCP服务,并给出了正确的结果

b.搜索MCP服务测试

在提出「无问芯穹M×N的架构指的是」,Agent正确调用搜索服务,并返回结果

通过在Dify平台安装mcp_server插件,结合无问芯穹推理加速API和MCP协议,开发者可以轻松打造功能强大的个人超级助手,实现地图、天气、搜索、邮件等千百工具的智能调用。MCP协议的标准化和无问芯穹的高性能推理API能力相辅相成,极大提升了AI应用的智能化水平和开发效率。

(PS:以上mcp agent实现是在 Dify react模式下进行,若是结合其他AI应用、开源框架+MCP Server+无问芯穹大模型服务,开发过程中遇到问题,欢迎加入社群一起交流。)

无问芯穹大模型服务现已支持在多个AI应用、开发平台中使用。可在网页或本地安装以下应用,接入无问芯穹的 API 后(可自定义添加这两款模型),即可体验 DeepSeek V3/R1、QWQ32B、Qwen2.5-VL等最新模型高性能推理加速版API

  • AI应用:Cherry Studio、LobeChat、NextChat

  • 代码应用:Cursor、Cline

  • AI应用开发平台:Dify

  • Agent项目:LangManus

  • AI 笔记:Obsidian AI

  • 翻译插件:沉浸式翻译

  • 浏览器插件:Sider、Page Assist

更多场景与应用案例接入教程可参考:https://docs.infini-ai.com/posts/#tag=integrations

欢迎更多AI应用合作伙伴加入我们,一起为开发者、企业提供更高效的智能应用。如果你还想无问芯穹大模型服务接入其他AI应用,也可以在评论区告诉我们。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐