本文是观看 B站 up主“不正经的前端啊”的cursor教程:https://www.bilibili.com/video/BV19w9bYkEEt/?share_source=copy_web&vd_source=db274f08fcede05a18484a69b184c9ef 所做出的总结笔记,欢迎大家结合原视频看本笔记。

欢迎大家访问 https://www.hello123.com

一、DeepSeek 是什么

1.1 DeepSeek 背景

DeepSeek 旗下的模型产品

发布时间 模型名称 类型/描述
2023-11-02 DeepSeek Coder 开源代码大模型,支持多种编程语言的代码生成、调试和数据分析任务。
2023-11-29 DeepSeek LLM 通用大模型,包含 7B 和 67B 的 base 及 chat 版本。
2024-01-05 DeepSeek LLM 670 亿参数大模型,涵盖中英文,在推理、编码等方面均超越了当时比较领先的 Llama2 70B Base。
2024-02-05 DeepSeek Math 数学推理模型,数学推理能力逼近当时的 GPT-4。
2024-03-11 DeepSeek VL 专家混合视觉语言模型,支持高级多模态理解任务。它是 DeepSeek 在多模态大模型上的初步尝试,支持7B、13B 参数
2024-05 DeepSeek V2 开源 MoE 通用大模型,性能比肩 GPT-4 Turbo,价格还仅是 GPT-4 的百分之一。
2024-06-17 DeepSeek Coder V2 236B、16B 两个参数版本,能力超越当时最先进的闭源模型 GPT-4-Turbo。
2024-09-05 DeepSeek V2.5 优化版模型,在 通用对话、写作任务、代码处理等多方面进行了优化。
2024-11-20 DeepSeek R1 Lite(赖特) 推理模型预览版,支持数学、代码及复杂逻辑推理任务。
2024-12-13 DeepSeek VL 2 视觉能力大幅提升、采用 Moe 架构,支持 3B、16B、27B 尺寸
2024-12-26 DeepSeek V3 开源 MoE 大模型,671 B 参数,性能对标 GPT-4o 和 Claude-3.5-Sonnet,生成速度更是大幅提升
2025-01-20 DeepSeek R1 它是 R1 正式版,一个强大的推理模型,开放了思维链输出功能,性能对标 OpenAI o1,支持数学、代码、自然语言推理任务。
2025-01-28 Janus-Pro(杰纳斯) 多模态模型,包含 7B 和 1.5B 版本,支持文本到图像生成。

这是截止到目前 DeepSeek 发布的所有大模型产品。

DeepSeek 最出圈的产品当属 V3 和 R1 这两款明星产品。

1.2 V3、R1 介绍

(1)V3 全能型通用模型(指令)

DeepSeek V3 是一款基于混合专家(MoE)架构的大模型。MoE 是一种混合模型架构,能够灵活调用不同的专家模块来处理多样化任务,因此 V3 也被称为“通用模型”。 GPT-4o 也属于这类模型

作为通用模型,V3 就像一位全能选手,能够轻松应对各种任务。无论是撰写邮件、编写故事,还是翻译语言、生成代码,V3 都能出色完成。它拥有强大的自然语言理解和生成能力,能够精准理解用户意图,并以流畅的自然语言进行回应。

(2)R1 专注于推理的模型

DeepSeek R1 是基于 DeepSeek V3 Base 进行强化学习训练,并通过多阶段渐进训练优化而成的推理模型。并且 R1 也是完全开源的推理模型。那在此之前,OpenAI 的 o1 模型是市面上最强的推理模型,而 DeepSeek R1 则完全对标 GPT-o1,甚至在部分任务上表现要优于 o1。

(3)推理模型和指令模型

在了解推理模型之前,我们需要先明确“指令模型”的概念。指令模型(比如 V3、GPT-4o)是专门设计用于遵循指令生成内容或执行任务的模型,简单来说就像是专门听你指挥的助手,你给它明确的指令要求,它就会按照你的要求生成内容或完成任务。使用这类模型时,我们需要掌握一定的 “说话技巧”,也就是提示词技巧(Prompt),这样才能让它输出的东西更符合我们的预期。。

而推理模型则专注于逻辑推理和问题解决,更像是一个擅长动脑筋的 “解题高手”,它能够自主处理那些需要 多步骤分析、因果推断 或 复杂决策的任务。使用 R1 这种推理模型时,我们可以直观地看到模型是怎么一步一步思考问题的(这种推理过程,我们称它为思维链),随后才是具体的答复。这种设计在一定程度上弱化了提示词技巧的需求,让普通用户能真切的感受到模型的“聪明”,甚至某些情况下在 R1 这种推理模型上过度的使用提示词技巧反而会限制推理模型的逻辑推理,这方面在后面章节也会详细介绍到。

推理模型一定比指令模型更好吗?

其实并不是。推理模型和指令模型各有各的特点和适用场景,没有绝对的优劣之分。选择哪种模型,主要取决于你的具体需求和使用场景。在后面的章节中,我们会结合实际的例子,详细讨论它们在不同场景下的表现和应用。

二、如何使用 DeepSeek

官方网站:https://www.deepseek.com/

官方使用:https://chat.deepseek.com/

官方 API 文档:https://api-docs.deepseek.com/zh-cn/

要使用 DeepSeek 的官方平台,你可以访问 deepseek.com,点击“开始对话”,或直接访问 chat.deepseek.com 就可以进入 DeepSeek 的官方对话界面。

默认情况下,普通聊天使用的是 DeepSeek V3 模型。如果你需要更深入的思考,可以点击“深度思考”选项,这时将切换到 DeepSeek R1 模型。

可以看到,使用 R1 模型时,系统会在回答问题前展示思维链的一个推理过程。

此外,你还可以选择“联网搜索”功能,选中之后模型会先基于你的问题检索网络内容,再结合检索结果生成回答。

三、DeepSeek 可以帮我们做些什么

自己可以用 DeepSeek 做些什么,DeepSeek 有可以帮助我们做些什么,对于这个问题,我们可以问一下 Deepseek。

下面是由 DeepSeek R1 帮我们整理的各个职业可以用 DeepSeek 做些什么:

  • 如果你是个教师,你可以用 DeepSeek 快速生成课堂教案,比如设计互动练习题或整理学科知识框架。
  • 如果你是个程序员,你可以用 DeepSeek 辅助代码开发,比如自动补全函数逻辑或解释复杂算法原理。
  • 如果你是个市场策划,你可以用 DeepSeek 生成创意方案,比如自动产出节日营销Slogan或分析竞品广告策略。
  • 如果你是个自媒体博主,你可以用 DeepSeek 批量生产内容,比如生成多个短视频脚本创意或优化文案标题关键词。
  • 如果你是个创业者,你可以用 DeepSeek 进行商业分析,比如自动生成用户画像模板或预测市场趋势变化。
  • 如果你是个设计师,你可以用 DeepSeek 激发创作灵感,比如生成UI配色方案建议或解析流行设计趋势。
  • 如果你是个科研人员,你可以用 DeepSeek 加速文献研究,比如自动总结论文核心观点或生成实验数据分析模板。
  • 如果你是个电商运营,你可以用 DeepSeek 优化商品管理,比如自动生成爆款产品描述或预测热销品类。
  • 如果你是个学生,你可以用DeepSeek加速学习效率,比如一键整理学科知识框架。

但是这些回答对你来说,始终是片面的,因为我不知道你的职业,我不知道你的工作内容,我不知道你有什么困扰

所以,如果你真的不知道 AI 可以帮到你什么,你可以直接去问 DeepSeek,比如我给大家提供一个简单模板:

  • ” 小 D 你好,我叫 XXX,我今年 xx 岁,性别 xxx,职业 xxx,平常的工作内容是 xxxxxx,我想要使用你,但是我不知道你能给我带来什么帮助,你可以帮我解答这个问题吗?谢谢你“
  • 当然这个内容你在问的时候越详细越好。

我给大家做个演示: 小 D 你好,我叫李四,我今年 26 岁,性别 男,职业 建筑工人,平常的工作内容是 搬砖、和泥、盖房子,我想要使用你,但是我不知道你能给我带来什么帮助,你可以帮我解答这个问题吗?谢谢你

你看看 DeepSeek 是如何回答的:

DeepSeek 的回答是:

李四你好!感谢你的信任,愿意让我为你提供帮助!作为建筑工人,你的工作体力消耗大、技术性强,我虽然不能帮你搬砖和泥,但可以从多个角度为你的工作、生活、学习提供支持,帮你更省力、更高效、更安全地完成目标。

然后它从工作、生活、学习各个方面给支招儿。连操作示例都给你提供了。

最后还给你来一句:李四大哥,咱们工人用 AI 不是赶时髦,是要实实在在帮自己省力气、多赚钱、保平安!您随时用工地大白话问我就行,小D就是您口袋里的智能工友!

你看它在给你回答的同时还给你带点情绪价值,上来就大哥,您您的。

所以不要再问我或者问别人 AI 能帮你做什么了,也不要说你的工作不涉及互联网 AI 没啥用,建筑工人它都能有用。

四、如何更好的使用 DeepSeek

随着各种 AI 应用的大面积落地普及,如何使用 AI、如何向 AI 提问、如何让 AI 答出我们想要的解,这是新时代中看不见、摸不着确又很重要的能力。我们管它叫 Prompt Engineering 也就是提示词工程。

4.1 问题是什么?

原始人发现“火会熄灭”(现实)→ 就会渴望 “如何保存火种”(理想)

现代人发现“手机续航不足”(现实)→ 就会想 “如何提升电池容量”(理想)

所以其实一个问题在本质上有两部分组成:现实和理想,现实状态是什么样的,理想状态是什么样的

所以在哲学上问题是指某种现实状态与期望状态之间的差距,或者对未知现象、矛盾、障碍的表述。它既可以是具体的疑问,也可以是抽象的困惑。

4.2 问题的分类

那针对不同的问题,我们可以为其划分一个类别

① 认知性问题

  • 比如 “为什么天空是蓝色的,人类的大脑是如何存储记忆的?
  • 这类问题的答案通常是客观事实或科学解释,像获取某个知识或理解某个现象,通常以“是什么”“为什么”开头。

② 实践性问题

  • 比如“如何提高团队效率?这个方案怎么改?如何在30天内提高英语口语水平?”
  • 这类问题的答案通常是具体的步骤、方法或策略,用来解决实际问题或完成某项任务,通常以“怎么做”“如何实现”开头。

③ 伦理性问题

  • 比如“人工智能是否应有道德判断?动物实验是否应该被禁止?”
  • 这类问题的答案往往取决于个人或社会的价值观,没有唯一正确答案,但能引发深度思考。
  • 比如,你问“是否应该允许克隆人?”——答案可能是“可以,但请先问问克隆人愿不愿意被克隆,这是一个值得深思的问题!”

④ 封闭性问题

  • 比如 “水的沸点是多少?你吃过午饭了吗?”
  • 这类问题有明确的答案范围,通常是“是/否,对/错”或具体事实,答案简短明确,适合用于确认信息或快速决策。
  • 比如,你问“今天开会吗?”——答案可能是“开!”或者“不开!”——反正别问 “为什么不开”,不然就变成开放性问题了!

⑤ 开放性问题

  • 比如“幸福的本质是什么?如何应对全球气候变化?”
  • 这类问题没有固定答案,比较能激发思考和讨论,适合用于深度探讨或创意发散。
  • 比如,你问“未来的城市交通会是什么样子?”——我可能会回答“空中飞车、地下隧道,或者干脆传送门!”,这些回答都是比较开放、发散的。

大家要记住这五个分类,其实问题就像一把钥匙,不同的钥匙能打开不同的门,我们了解了问题是什么以及问题的分类之后,再来说提问。

4.3 提问的技巧

你是不是也遇到过这种情况:明明想请教别人,对方却听不懂你的意思?或者讨论问题时,总是抓不到重点?

其实,问题的核心不是“答案”,而是“如何问”,也就是提问的技巧。

一个好的提问由三部分组成,我们称他为黄金三角结构,也可以教汉堡包结构。

① 背景

  • 如果你向人问 “怎么学英语?”,对方的内心可能是:你是想考雅思?还是追美剧?或是为了骂老板时词汇量更丰富?
  • 但是如果你这样问:“我是一名程序员(身份),想跳槽外企(目标),每天只有30分钟碎片时间(限制),该优先练听力还是背单词?”
  • 诶,这就是一个好的问题,因为你带上了背景,对方可以从问题中看出你的现状,基于你的现状定向回答你如何去学习英语。
  • 背景像地图,不带就迷路!

② 需求

  • 如果你向人问如何提高沟通能力?对方可能只会回答你:“多听多说”(等于没说)。
  • 因为你的需求太泛化。
  • 但是你如果问:我在部门会议发言时总被同事打断(痛点),如何用一句话礼貌夺回话语权(具体需求)
  • 诶,你给了一个具体场景,需求足够细、足够具象化,这个时候别人给出答案的针对性就足够强
  • 需求越像手术刀,答案越像特效药

③ 方向

  • 就是控制回答的方向
  • 比如你跟人讲了一个方案,问对方这个方案怎么改好?这问题就比较开放,对方的回答也会很开放
  • 如果你问,预算砍半的话,这个方案哪些部分可以创新?
  • 诶,这个时候对方就会根据你的问题方向回答问题,显然结果也会更契合你。

如果你记不住,你可以把问题想象成汉堡包结构

① 需求(肉饼)

  • 肉饼是最贵的,所以它也是最核心的,没有肉饼,汉堡没有精髓
  • 你可以把需求理解为 你要做什么

② 背景(面包)

  • 面包不值钱,但是它也是不可或缺的一部分,少了面包就不能叫做汉堡
  • 你可以把背景理解为 为什么这么做

③ 方向(芝士)

  • 芝士是锦上添花,有了芝士汉堡更好吃,没有芝士会觉得有点腻
  • 你可以把方向理解为 想要达到什么效果

我们从反例倒推一下

  • 比如你问每天加班到 12 点
    • 这句话只有背景,没有需求,谁知道你要做什么
  • 比如你问如何让老板给你加薪
    • 这句话只有需求,没有背景,想要加薪你也得介绍一下为什么让老板给你加薪对吧
  • 比如你问今天吃什么
    • 这句话就没有方向,更好的方式是问今天吃火锅还是烧烤,让问题的方向更明确
    • 这样的话就是你想要得到对方吃什么,并且给出了选择性的参考,那对方的回复就会在你的预期内,因为不是火锅就是烧烤

我们只需要记住汉堡包结构

  • ① 背景(面包)为什么这么做
  • ② 需求(肉饼)你要做什么
  • ③ 方向(芝士)想要达到什么效果

记住这些你的提问最低也得有个 70 分,足以告别平常问大佬问题时 “已读不回” 的尴尬境地。

以上讲的是与人提问的技巧,接下来可以愉快的聊一聊模型的 Prompt 技巧了,因为我们是在讲 DeepSeek,所以接下来以 V3、R1 这两种模型为例,介绍下指令模型和推理模型的技巧

4.4 指令模型(V3)技巧

4.4.1 技巧

首先来讲 V3,我们前面介绍过 V3 是一个指令模型。

针对指令模型,比如 DeepSeek V3、GPT-4o 这种常规的通用指令模型,都是非常需要 Prompt 技巧的。

因为模型存在一些缺陷,比如

  • 缺乏真正的理解能力:大模型通过统计模式生成文本,但并不真正理解语言的含义或背后的逻辑。
    • 所以我们经常看到 模型可能会生成看似合理但实际错误的答案
    • 无法区分事实与虚构,容易生成虚假信息。
  • 缺乏推理和逻辑能力:指令模型在复杂逻辑推理、数学计算或因果推断方面表现并不是很好。
  • 上下文长度限制:大模型的输入和输出长度有限制,无法处理过长的上下文。

其实还有很多问题,特别是指令模型,对指令模型来说,它的输出高度依赖提示词的质量和具体性。模糊或不明确的提示词可能导致无关或低质量的输出,所以玩指令模型需要我们具备一定的提示词能力。

这里暂时只介绍一个大家都记得住非常简单的结构化技巧,你只需要记住四个核心:角色、背景、需求、输出,记住这八个字,就可以基本做到通吃。如果想理解什么样的提示词更好、为什么这样写提示词会更好,这需要系统化的 Prompt Engineering 知识,本文是入门,暂不做深入探究。

之前讲过,提问的技巧在于问题的构成,而好的问题构成需要 背景、需求、方向三个块,也就是汉堡包结构。

而向指令模型提问时一个好的问题构成我们这里讲的是 角色、背景、需求、输出。

基本类似,细微的区别在 角色和输出上。

  • 角色
    • 明确模型的角色或身份,我们可以让模型 cosplay 一个针对你需求所在领域的专家,或者让他模拟你的角色。
    • 这样模型会基于让它扮演的角色生成更符合角色身份的专业回答
  • 背景(上下文)
    • 背景其实和我们之前介绍的一样,你想要让模型回答你的问题、解决你的需求,那你就要给模型补补课,你要告诉它为什么为有这个需求,让模型结合你的立场去回答
    • 其实有时候也会把背景,说是上下文,就是一个问题的前置和后置内容,比如你问模型一个问题,模型回复之后你接着这个聊天又发散了第二个问题,那么模型是怎么知道你们之前聊的什么,其实就是因为你的第二个问题发送给模型时,其实也把第一轮的问题和答案都发送给了模型,这部分会作为第二个问题的上下文给到模型,所以其实一个完整的聊天窗口是维护了一个大的上下文在其中的,而我们在问第一个问题时,没有前置内容,所以你必须在 提示词 要补充相关的上下文,也就是背景。
    • 这对模型的问题理解会很有帮助,这一点与汉堡包结构中的背景是一致的,为什么这么做就是背景
  • 需求(任务、指令)
    • 有人会把需求称为任务、指令,其实都是一样的,需求就是你的核心要解决的问题点。
    • 它和我们之前讲的汉堡包结构中的需求也是一致的,你要做什么,所以还是那句话,需求不要太泛化,越细越好
    • 对指令模型来说,需求越详细生成的越准确,因为你每增加一点的详细说明,模型回答时可选择的范围就越小,这样的话生成结果就越偏向你的预期。
  • 输出
    • 指定输出的形式或格式,说白了就是你想要达到一个什么效果,比如我要输出 500 字,或者我想要输出鲁迅风格的文章。
    • 诶,你会发现输出和我们之前讲的汉堡包结构中的方向也很类似,没错,其实输出就包含了汉堡包结构中的方向引导,只不过在和模型的问答中,我们要给他指定更详细的输出内容,因为模型毕竟不是个人,对人来说我们只能引导,那对模型来说,我们要明确模型的输出范围。并且再口语化的表达上要更明确。
4.4.2 案例演示

假如,我想写一篇关于气候变化的文章。大家要怎么处理提示词,不出意外的话大部分人都会直接发给模型 ”帮我写一篇关于气候变化的文章“ ,显然,对于指令模型来说,这不是一个很好的提示词,因为这句话很泛化,给了指令模型很大的想象空间。

(1)套用模版构造提示词

我们简单套用一下模板,需求是写一篇关于气候变化的文章:

  • 角色:环境科学家兼科普作家
  • 背景:全球气候变化日益严峻,公众对气候问题的关注度不断提升,但理解深度有限。(我为什么要写一篇这样的文章,这就是背景)
  • 需求:撰写一篇通俗易懂且具有科学依据的文章,用来提高公众对气候变化的认识,并激发行动。(更详细的需求,基于前提背景我想要做些什么)
  • 输出:1000字左右的文章,包含气候变化的原因、影响、应对措施及行动建议,语言生动,数据准确。

那连起来就是 ”假设你是一位环境科学家兼科普作家,全球气候变化日益严峻,公众对气候问题的关注度不断提升,但理解深度有限。请你撰写一篇通俗易懂且具有科学依据的文章,用来提高公众对气候变化的认识,并激发行动。输出 1000 字左右的文章,包含气候变化的原因、影响、应对措施及行动建议,语言生动,数据准确。“

我们使用 DeepSeek V3 模型回车看下答复:

还不错对吧,那如果这不是你想要的,你还可以基于这个模板继续微调,主要是在需求的细化上,你可以为你的需求添加更多详细的步骤让它更细粒度。

是不是很简单,你只需要记住这四个核心,一共就八个字,问问题时套用一下,其实就是一份不错的提示词了,足以应对绝大多数场景。

而这四个核心,其实除了角色之外,其他三部分都是与人沟通时的提问技巧。

(2)借助 AI 生成提示词模版

当然,你可能会说我不知道如何根据这四个核心扩写提示词,其实对此你也可以问 AI,让 AI 模型帮你写扩写四个核心的内容,用魔法打败魔法。

还是那四个核心,我们根据四个核心的写法去写一个让 AI 帮助我们优化提示词的模板,这个模板是这样的

  • 你是一个提示词优化专家,用户当前提示词较为模糊,缺乏具体指导。请帮用户优化关于 《xxxxxx》 的提示词,基于角色、背景、需求、输出四个核心,使其更具结构性和可操作性,帮助用户更高效地完成任务。优化后的提示词模板,包含明确的角色定义、背景描述、需求细化及输出要求,并提供优化说明,解释每一步的改进逻辑。

其实你会发现,这个优化提示词的模板也是按照四个核心来写的,那把上面那个案例代入进去就是:

  • 你是一个提示词优化专家。用户当前提示词较为模糊,缺乏具体指导。请帮用户优化关于《写一篇关于气候变化的文章》 的提示词,基于角色、背景、需求、输出四个核心,使其更具结构性和可操作性,帮助用户更高效地完成任务。优化后的提示词模板,包含明确的角色定义、背景描述、需求细化及输出要求,并提供优化说明,解释每一步的改进逻辑。

在发送给模型前,我们需要单独开启一个聊天上下文,不要被之前的聊天上下文影响到。

我们看一下 deepseek v3 的回复:

如图所示,显然 AI 生成的优化后的提示词比我们自己优化的提示词强很多,而我们要做的就是复制这段提示词,基于他给的优化后的提示词修改一些我们知道的信息,然后删除掉我们不知道的信息即可,或者你也可以继续在聊天中发送补充信息优化。

甚至你还可以俄罗斯套娃,用这四个核心的提示词优化模板,去优化 “提示词优化“ 的模板,好好品一品这句话,比如我们输入

  • 你是一个提示词优化专家。用户当前提示词较为模糊,缺乏具体指导。请帮用户优化关于《优化关于 ‘xxxxxx‘ 的提示词》 的提示词,基于角色、背景、需求、输出四个核心,使其更具结构性和可操作性,帮助用户更高效地完成任务。优化后的提示词模板,包含明确的角色定义、背景描述、需求细化及输出要求,并提供优化说明,解释每一步的改进逻辑。

看一下 AI 模型给我优化的这个用于提示词优化的模板提示词。

所以我们都不需要记各种技巧,只需要记住这四个核心,八个字就可以驱使 AI 来帮你处理一份好的提示词。

甚至如果你了解提问的黄金三角结构,就是那个汉堡包,对于指令模型,你只需要加一个角色就可以了。

我们上面说这些,不只是可以在 DeepSeek V3 中使用,还可以在任何指令模型中使用,比如GPT、Claude、豆包、kimi、Qwen等等等等,只要不是推理模型,你都可以用这个结构化的 Prompt 技巧。

4.5 推理模型(R1)技巧

再来讲 R1,我们前面也介绍过 R1 是一个推理模型。

推理模型指的就是 DeepSeek R1、OpenAI O1 这种模型,我们在使用 R1 时,你可以把他理解为一个聪明人,那聪明人之间的对话你肯定得用聪明人的问法,

我们在使用 R1 去问问题时,就不要加太多所谓的提示词技巧了,如果你用了很多网上学到的提示词小技巧给到 R1,反而可能会影响它的推理。

还记得我们之前说的提问的黄金三角结构,就是那个汉堡包吗,向人提问时我们遵循汉堡包结构,那其实推理模型我们完全可以把他当成一个人去使用,因为推理的过程就是拟人思考的过程,所以推理模型的技巧就还是那个汉堡包结构。

  • 背景(面包)为什么这么做
  • 需求(肉饼)你要做什么
  • 方向(芝士)想要达到什么效果

我们在和 R1 这种推理模型交流时更需要注意的是,你要把 R1 当成一个人去提问,不要把它当机器试图去干涉它的推理过程,就像我们不能干涉一个人的想法一样,所谓的干涉推理过程,指的是不要在一个问题中加入引导它回答的过程步骤。

比如你可能会在指令模型的问答中加一些:

  • 你应该怎么怎么做
  • 你要怎么怎么做
  • 你先去做什么再去做什么

那这种引导在 V3、GPT4o 这种指令模型中是有效的。

但是在 R1、O1 这种推理模型中都是不推荐的,这些词汇都是意图明确的在引导过程,当然不推荐不代表不能用,也是可以用的,但是如果你的提示词过于细化,连思考步骤都给的很细,你完全可以去用指令模型,没有必要用推理模型,因为他们的区别就是有没有自主推理这么一个思考的过程。

所以,一定是把它当成一个人去问,为什么一直强调这个问题,因为只有把它当人你才不会刻意的去引导它,而人与人之间的提问,就比较多样化,假如你向你的好朋友提了一个问题,他的回答你觉得不对,你想嘲讽它两句,诶,那 R1 如果回答的令你不满意,你也可以去嘲讽它,它会像个人一样推理你的表达,自我质疑,然后再次修正,当然我只是说个比喻,可以这样做,但是不推荐,如果回答不满意,指出它回答中的你不满意的点是比较高效的方式。

所以使用 R1 的技巧就是记住提问的基础:背景、需求、输出三项之外,把它当人即可,剩下的就是经验。

为什么我还提了一句经验,确实网上有很多博主介绍各种推理模型提问的小技巧,但是对他们有用,对你不一定有用,因为本质上推理模型不存在系统的技巧,推理可以理解为思考,思考的方向是不固定的,问题的种类也是多样的,在一定场景下确实可以根据习惯总结出一些适合自己的小技巧,但是换个人、换个场景并不一定适用,所以我只推荐大家记住问题的构成,当人去问就行了。

另外我要多讲一句,术业有专攻对吧,大家不要觉得 R1 好像很聪明就什么问题都要用 R1 去问,R1 这种推理模型其实是为了一些复杂场景任务而生的,那比如你要问 “去年的今天是星期几”,这种简单的小问题你如果使用 R1 去问,多少有点大才小用,而且它还要花很长时间做推理,你不如直接使用 V3 去问对吧,速度又快又准确。

4.6 V3、R1 如何选择

那么,什么样的问题适合 V3 这种指令模型,什么样的问题又适合 R1 这种推理模型呢?

这就要用到我们之前讲的问题分类知识了

① 认知性问题

  1. 这类问题的答案通常是客观事实或科学解释,像获取某个知识或理解某个现象
  2. 如果你问 “为什么天空是蓝色的“ 这种认知性问题
  3. 指令模型 V3 会通过预训练的知识库预料,快速检索和提供准确的科学解释或客观事实。
  4. 推理模型 R1 则是通过逻辑推理和上下文理解,它提供的是更深入的解释包括一些关联知识。

② 实践性问题

  1. 这类问题的答案通常是具体的步骤、方法或策略,用来解决实际问题或完成某项任务
  2. 比如“如何提高团队效率?如何在30天内提高英语口语水平?”
  3. 指令模型 V3 会根据预定义的规则或模板,生成具体的步骤、方法或策略。
  4. 推理模型 R1 则是结合上下文和用户需求,动态调整解决方案,提供更灵活的建议。

③ 伦理性问题

  1. 这类问题的答案往往取决于个人或社会的价值观,没有唯一正确答案,但能引发深度思考。
  2. 比如“人工智能是否应有道德判断?动物实验是否应该被禁止?”
  3. 指令模型 V3 会提供基于伦理原则的标准答案或常见观点。
  4. 推理模型 R1 则是从多角度分析伦理问题,结合上下文和逻辑推理,提供更平衡的观点。

④ 封闭性问题

  1. 这类问题有明确的答案范围,通常是“是/否,对/错”或具体事实,答案简短明确
  2. 比如 “水的沸点是多少?你吃过午饭了吗?”
  3. 指令模型 V3 会快速检索并提供明确的答案,适合用于确认信息或快速决策。
  4. 推理模型 R1 则是通过上下文理解,提供更精确或个性化的答案。

⑤ 开放性问题

  1. 这类问题没有固定答案,比较能激发思考和讨论,适合用于深度探讨或创意发散。
  2. 比如“幸福的本质是什么?如何应对全球气候变化?”
  3. 指令模型 V3 会生成多样化的回答,适合用于激发创意或提供多种可能性。
  4. 推理模型 R1 则是通过逻辑推理和上下文分析,提供更深入、更有条理的回答。

针对不同问题类型,我们可以得出一张指令模型和推理模型处理方式对比表:

问题类型 指令模型擅长点 推理模型擅长点
认知性问题 提供准确、详细的科学解释 提供更深入的解释或关联知识
实践性问题 生成具体的步骤、方法或策略 结合上下文,提供更灵活的建议
伦理性问题 提供基于伦理原则的标准答案 从多角度分析,提供更平衡的观点
封闭性问题* 快速检索并提供明确答案 通过上下文理解,提供更精确的答案
开放性问题 生成多样化回答,激发创意 提供更深入、更有条理的回答
  • 指令模型更适合需要快速检索、标准化答案或多样化创意的问题。
  • 推理模型更适合需要逻辑推理、上下文理解或深度分析的问题。

看到这里有朋友可能会说:似乎,推理模型在所有问题分类的能力上都强过了指令模型

答案确实是这样的,毕竟推理模型价格更高也就代表能力更强。

但是,我们要忽略了一个重要的点:效率

  1. 一些只需要拿到结果的认知性问题(比如“天空为什么是蓝色”“地球为什么是圆的”)。
  2. 还有只需要得到结果的封闭性问题(水的沸点是多少,珠峰的高度是多少)
  3. 这些问题两种模型确实都可以回答
  4. 但是推理模型要先生成推理文本再生成答案,但是针对只需要拿到结果的问题我们要的是准确以及高效,不需要发散,只要答案。这个时候指令模型就可以了,准确、高效。

比如:

当你需要快速查天气、算数学题,或者找一个明确的操作步骤,比如“怎么重置路由器”,这时候你需要的是一本精准的工具书,秒回答案,绝不啰嗦!所以指令模型显然更合适。

但是如果你遇到的是开放脑洞题,比如“帮我写一首情诗”,或者需要分析复杂问题,比如“AI 会让哪些职业消失?”,甚至要讨论伦理题,比如“无人驾驶如何选择救人顺序?”——这时候,请交给推理模型!它更像一个全能顾问,能联想、会推理,可以给你多角度的深度解析。

4.7 总结

4.7.1 指令模型,像Gpt-4o、deepseek-v3
  • 更像是一个客观的机器人,需要细化问题的各个步骤来提问,提问四要素:角色、背景、需求、输出

  • 我们提问时把自己当做一个部门主管,对任务进行细分的拆解,然后一步一步地指导AI来完成,就像指导新员工的时候,需要详细的说明每一个步骤,并提供明确的一些事例和指引,需要结构化的引导。(下达的指令很重要,需要步骤指引,怎么做)

4.7.2 推理模型,像Gpt-o1、deepseek-R1
  • 更像是一个主观能动性的人,可以对问题进行发散性的理解和推理,提问四要素:背景、需求、方向(汉堡结构)
  • 我们的角色更相当于一个需求方或者是甲方, 表达出明确的一个目标和核心诉求,中间的这个干预过程和引导步骤需要尽可能的减少,就直接把AI当做一个经验丰富的专家,他们可以做好自己的专家判断,并能够自主的完成任务,而不需要教专家应该如何如何做。(表达需求即可,精确描述需求)

点我扫码关注微信公众号

微信公众号名称:Hello123网站

谢谢关注!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐