要说当下什么最热,DeepSeek绝对是当仁不让。凭借其强大的语言理解和生成能力,以及免费开放的策略,DeepSeek迅速吸引了大量用户,成为全球关注的焦点。然而,随着用户数量的激增,DeepSeek官网的联网搜索和深度思考功能经常出现“服务器繁忙”的提示,严重影响了用户体验。

除了官方,还有办法拥有满血、可联网的 DeepSeek 吗?

答案是肯定的。比如近期移动云就推出了DeepSeek系列模型的免费体验,通过接入云服务商的推理API,用户可以构建专属智能体,畅享联网搜索、本地知识库等丝滑体验。下面就跟着一起动手实践吧。

一、效果

以下为基于R1+Agentic RAG实现的搜索智能体效果

Web UI采用streamlit完成开发,添加了DeepSeek icon,左侧栏可回看历史对话记录

二、构建联网搜索智能体

2.1 整体方案

(1)通用方案

说到智能体,很多人第一反应是LLM+工具调用,通过Function Call(函数调用)和ReAct(Reasoning and Action)方式进行驱动,但是官网已经给出了回复,Function Call和ReAct均无法很好满足联网搜索智能体的需求。

因此需要其他的解决方案。

(2)Agentic RAG

Agentic RAG提供了一种新的思路:Agentic RAG 是对传统 RAG 系统的扩展,通过引入AI Agent来协调检索和生成流程。这些Agent能够动态决策、优化工作流,并执行多步检索和推理任务。

Agentic RAG主要流程如下:

第 1-2 步:Agent 会重写查询(如纠正拼写错误等)。

第 3-8 步:Agent 决定是否需要更多上下文信息:

  • 如果不需要,重写后的查询直接发送给 LLM。

  • 如果需要,智能代理会找到最佳的外部来源以获取上下文,并将其传递给 LLM。

第 9 步:系统生成响应。

第 10-12 步:智能代理检查答案是否相关:

  • 如果相关,则返回响应。

  • 如果不相关,则返回第 1 步重新开始。

(3)修改后的方案

下图为基于AgenticRAG架构修改的联网搜索智能体设计,简化了了第10-12步判断答案相关性的步骤,

整体设计步骤如下:

1、用户请求,发送Query``2、意图识别Agent1根据上下文和当前问题进行意图判断,若无须检索则直接回答,否则进入下一步``3、关键词提取Agent2将用户问题进行关键词提取,生成搜索引擎便于识别的关键词``4、搜索引擎执行搜索,返回搜索结果``5、搜索结果,用户Query,当前时间信息放入搜索智能体Agent3提示词模版中,增强生成Answer``6、返回增强生成后的内容

2.2 实践步骤

(1)实现联网搜索工具

Tavily 是一款专为大型语言模型(LLMs)和检索增强生成(RAG)优化的搜索引擎API,旨在为AI应用提供实时、准确且无偏见的信息。它通过连接AI系统与网络上的实时事实信息,帮助AI开发者、研究人员和企业获取高效、快速且持久的搜索结果。

主要功能和特点:

1.深度研究与智能查询:通过单一API调用,Tavily能够聚合和筛选来自可信来源的信息,并提供深入的研究结果。

2.多源优化:与Bing、Google等传统搜索引擎相比,Tavily会审查多个来源,提取最相关的内容,优化LLM的上下文。

3.实时更新与准确性:Tavily专注于提供实时、准确的信息,减少AI幻觉和偏见。

4.灵活性与成本效益:提供灵活的定价计划和更实惠的成本,适合不同规模的项目。

5.支持多种应用场景:适用于学术研究、市场分析、新闻媒体、商业决策支持等多种领域。

调用Tavily并解析结果代码如下:

import os``from tavily import TavilyClient``def search_and_parse(keywords, max_results=10):`    `"""`    `搜索并解析结果的函数`    `:param keywords: 查询关键词`    `:param max_results: 最大搜索结果数量`    `:return: 解析后的结果列表`    `"""`    `client = TavilyClient(api_key=os.environ.get("TAVILY_API_KEY"))`    `response = client.search(`        `query=keywords,`        `max_results=max_results,`        `time_range="d",`        `search_depth="advanced",`        `include_answer=True`    `)`    `# 解析搜索结果`    `parsed_results = []`    `for result in response["results"][:max_results]:`        `title = result.get("title", "无标题")`        `url = result.get("url", "无链接")`        `score = result.get("score", 0)`        `content = result.get("content", "无内容")`        `parsed_results.append({`            `"title": title,`            `"url": url,`            `"score": score,`            `"content": content`        `})`    `return parsed_results

(2)意图识别

为了提高对话效率(非不要不执行搜索),此处设计了意图识别Agent,根据上下文内容和当前用户问题判断是否要执行搜索。

此处Agent的prompt设计如下:

### 角色``你现在是一个优秀的检索判断智能体,可以根据自身能力和历史上下文信息准确判断用户当前问题是否还需要进行**联网**检索。``### 技能``1. 你可以根据用户历史信息理解用户的当前问题``2. 根据联网搜索工具解决需要实时检索的问题。``### 要求``1. 不要使用任何模板,直接返回识别的意图的枚举类型(CHAT、SEARCH)``2. 如果当前问题无须实时联网,能够根据自身能力回答,返回 CHAT``3. 当用户历史信息已包含回答当前问题的所有信息时, 返回 CHAT``4. 对于不是上述两种情况的其他情况,都返回SEARCH``### 用户历史信息``{{history_summary}}``### 当前问题``{{user_query}}

(3)关键词提取

在进行搜索前,需要Agent对用户query进行关键词提取,因为用户问题通常为自然语言描述,而搜索引擎更擅长处理简洁、直接的查询,因此需要进行自然语言到搜索关键词的转换。

此处Agent的prompt设计如下:

## 角色``你是一位问题关键词提取专家,擅长从用户的问题中提炼出最精准的搜索关键词。``# 目标``你的目标是提取最能代表问题核心的信息,以提高搜索引擎的查询效率。``# 规则``1. 保留问题中的核心概念和重要限定词。``2. 去除无关紧要的停用词(如“的”“是”“怎么样”等)。``3. 优先选择简洁且具有搜索潜力的短语。``4. 确保关键词具有实际查询价值,并尽量符合搜索引擎的检索习惯。``5. 如有需要,可提供多个关键词组合,覆盖不同检索需求。``---``# 示例``## 示例1``用户输入:如何提高网站的用户体验和加载速度?``提取关键词:网站用户体验 加载速度 优化方法``## 示例2``用户输入:如何在 Linux 系统中安装新软件?``提取关键词:Linux 系统 软件安装 操作指南``---``用户输入:{{user_query}}``提取关键词:

(4)流程编排,实现Websearch Agent

在完成了上述流程后,我们可以着手构建Websearch Agent,在这个智能体中,将采用满血R1作为LLM,结合其深度思考能力提升智能体回答效果。

对于R1构建的Agent,官方在2月14日发布了prompt建议和模板

  • 不建议使用系统提示词

  • 温度参数建议0.6

  • 官方网络搜索提示词模板:

search_answer_zh_template = \``'''# 以下内容是基于用户发送的消息的搜索结果:``{search_results}``在我给你的搜索结果中,每个结果都是[webpage X begin]...[webpage X end]格式的,X代表每篇文章的数字索引。请在适当的情况下在句子末尾引用上下文。请按照引用编号[citation:X]的格式在答案中对应部分引用上下文。如果一句话源自多个上下文,请列出所有相关的引用编号,例如[citation:3][citation:5],切记不要将引用集中在最后返回引用编号,而是在答案对应部分列出。``在回答时,请注意以下几点:``- 今天是{cur_date}。``- 并非搜索结果的所有内容都与用户的问题密切相关,你需要结合问题,对搜索结果进行甄别、筛选。``- 对于列举类的问题(如列举所有航班信息),尽量将答案控制在10个要点以内,并告诉用户可以查看搜索来源、获得完整信息。优先提供信息完整、最相关的列举项;如非必要,不要主动告诉用户搜索结果未提供的内容。``- 对于创作类的问题(如写论文),请务必在正文的段落中引用对应的参考编号,例如[citation:3][citation:5],不能只在文章末尾引用。你需要解读并概括用户的题目要求,选择合适的格式,充分利用搜索结果并抽取重要信息,生成符合用户要求、极具思想深度、富有创造力与专业性的答案。你的创作篇幅需要尽可能延长,对于每一个要点的论述要推测用户的意图,给出尽可能多角度的回答要点,且务必信息量大、论述详尽。``- 如果回答很长,请尽量结构化、分段落总结。如果需要分点作答,尽量控制在5个点以内,并合并相关的内容。``- 对于客观类的问答,如果问题的答案非常简短,可以适当补充一到两句相关信息,以丰富内容。``- 你需要根据用户要求和回答内容选择合适、美观的回答格式,确保可读性强。``- 你的回答应该综合多个相关网页来回答,不能重复引用一个网页。``- 除非用户要求,否则你回答的语言需要和用户提问的语言保持一致。``# 用户消息为:``{question}'''

AI大模型学习路线

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

扫描下方csdn官方合作二维码获取哦!

在这里插入图片描述

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!

请添加图片描述
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

请添加图片描述

大模型全套视频教程

请添加图片描述

200本大模型PDF书籍

请添加图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

请添加图片描述

大模型产品经理资源合集

请添加图片描述

大模型项目实战合集

请添加图片描述

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

点击阅读全文
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐