
2025DeepSeek完全指南,99%的人都不知道的10个隐藏技巧(建议收藏)
这两天,我查了很多资料,也看了一下之前的评论区,虽然许多人都已经开始尝试在使用DeepSeek,但也有很多人吐槽说很垃圾,并没想象中那么牛。其实问题根本不在工具,很多人的使用姿势就搞错了,用大炮打蚊子,白白浪费DeepSeek的强大功能。接下来,我会用10个使用技巧教会大家如何与DeepSeek高质量对话,以及一些隐藏技巧。学习完之后,你就会发现DeepSeek远比你想象中的强大。
这两天,我查了很多资料,也看了一下之前的评论区,
虽然许多人都已经开始尝试在使用DeepSeek,但也有很多人吐槽说很垃圾,并没想象中那么牛。
其实问题根本不在工具,很多人的使用姿势就搞错了,用大炮打蚊子,白白浪费DeepSeek的强大功能。
接下来,我会用10个使用技巧教会大家如何与DeepSeek高质量对话,以及一些隐藏技巧。
学习完之后,你就会发现DeepSeek远比你想象中的强大。
一、选对模式,事半功倍
DeepSeek提供基础模型(V3)、深度思考(R1)和联网搜索三种模式,针对不同场景灵活选择:
1.1、基础模型(V3)
-
定位:快速响应的百科助手
-
特点:
-
默认模式,无需勾选功能
-
支持日常问答、文本生成等基础任务(如“解释量子力学”)
-
响应速度极快(平均1秒内)
-
适用场景:日常问答首选,响应快,适合百科查询、简单任务
1.2、深度思考(R1)
-
定位:逻辑推理专家
-
特点:
-
专攻复杂问题(数学证明、代码调试、学术分析)
-
支持思维链展示,推理过程全透明
-
响应较慢(复杂问题需2-3分钟)
-
适用场景:专攻复杂推理,如数学题、代码调试(如“用Python实现快速排序”)
1.3、联网搜索
-
定位:实时信息捕手
-
特点:
-
基于RAG技术整合网络最新数据(知识库更新至2024年7月)
-
支持查询动态事件(如“2025春晚《秧bot》技术解析”)
-
使用技巧:
-
避免与R1模式同时启用,以防逻辑冲突
二、性能对标:与主流模型的横向对比
2.1、V3对标GPT-4o
DeepSeek的V3模型堪比GPT-4o,二者的设计理念和应用场景非常相似。
V3采用了Moe架构,拥有671B的参数量,能够在百科知识领域提供快速响应。
2.2、R1对标o1
R1是DeepSeek的深度推理模型,和OpenAI的o1模型非常类似。
二者都在处理推理、深度思考以及复杂逻辑问题时,展现出了非凡的能力。
R1采用了660B的参数,并且在强化学习和后训练方面表现出色。
R1更擅长逻辑推理和复杂问题的解答,在这一点上,R1已经超越了o1模型。
关于4o与o1的区别,下面有一张表,大家看完就知道该如何选用V3和R1模型了。
三、知识更新至2024年7月
目前,DeepSeek的预训练数据(你可以理解为模型已学习的知识),已经更新至2024年7月。
但对于之后的新闻或技术动态,DeepSeek的联网搜索模式就显得尤为重要,
它能够根据网络实时获取最新信息,弥补知识库的空白。
所以,2024年7月前的问题基本上不需要打开联网功能。
而之后的问题(比如2025年诺贝尔奖得主是谁?春晚秧Bot),
DeepSeekZ目前并未学习,建议开启联网功能,效果更佳。
四、提示词核心:准确表达
DeepSeek,无论是V3还是R1模型,都是不太吃提示词的,
只需要做到【准确表达】即可。
通用提示词模板 = 身份 + 目标
示例:
你是李白,请以李白的风格口吻写一首七律.春节
适当情况下,也可以补充一些背景信息:
通用提示词模板 = 身份 + 背景 + 目标
示例:
你是李白,目前正被流放夜郎,请以李白的风格口吻写一首七律.春节
还可以是:
通用提示词模板 = 身份 + 背景 + 目标 + 限制条件
示例:
你是李白,目前正被流放夜郎,请以李白的风格口吻写一首七律.春节,严格遵循律诗的格律要求,包括平仄、押韵和对仗。其中,颔联(第三、四句)和颈联(第五、六句)必须对仗工整,词性相对、结构相似,平仄相对。
不管哪个模板,其核心都是【准确表达】。
能够做到准确表达,说人话,就已经完全够用了。
所以,过去你们学的那些结构化提示词,从现在起,就可以大胆地丢掉了。
五、与DeepSeek沟通,尽量说人话
最好的提示词,就是没有提示词,说人话就可以,
在会动脑子的deepseek面前,不用玩心思,真诚才是必杀技。
越是直白、俗气,就越能激发它的潜能。
示例:
解释一下什么叫通货膨胀,说人话
六、如何去除DeepSeek的AI味
过去,我们经常吐槽AI生成的东西带有明显的"AI味"。
其根源就在于模型过分追求结构化输出,
习惯性地运用"首先、其次、然后、总而言之"等规范性的衔接词,使得内容显得过于程式化和刻板。
而作为具有强烈感性特征的生物体,人类对这种理性至上的文字形式实在难以忍受,
尤其是当文字呈现出八股文式的呆板架构或学术文体的生硬风格时,更是令人昏昏欲睡。
那么这种情况,建议你加一句提示,比如:
1、我是一名小学生 / 请用小学生能听懂的话解释。
2、说人话
3、用中学生都能听懂的语言
4、非专业人士都能听懂
提问的时候加上上述这些提示,就可以极大地去除DeepSeek 的AI味了。
示例:
请用小学生能听懂的话解释,什么是区块链?
怎么样?
现在是不是一下子就理解什么是区块链了?
七、活用联网搜索
以o1为代表的推理模型,基本上都是不能联网的。
而联网搜索是DeepSeek的一大亮点,它让模型在回答时不仅仅依赖预训练数据,还能实时从网络上检索最新的信息。
你可以问到2024年7月以后发生的事件,或者某些新兴技术领域的问题,
DeepSeek都能通过联网搜索为你提供更准确、及时的回答。
而DeepSeek,是少有的支持推理+联网的模型。
八、活用上传附件
除了联网搜索,DeepSeek还支持上传附件功能,这为用户提供了更多个性化的体验。
通过上传附件,你可以将自己的私密资料、知识库、甚至是一些需要深度推理的材料直接交给DeepSeek,
让它基于这些专有的文件进行分析和推理。
DeepSeek的推理模型,不仅能联网,还支持上传附件(最多不超过50个,每个不超过100MB)。
推理+上传附件,可以做更多本地化、私密化的东西,比如你自己的知识库或者内部资料。
让其基于自有知识库进行推理和思考。
示例:
阅读这篇材料,告诉我讲了些什么东西?输出言简意赅。
九、通过持续追问,获取详细答案
运用持续追问的技巧,能够帮你快速搞清楚一个复杂问题,大致步骤如下:
1. 初始提问:"如何做好短视频脚本?" 2. 细化追问:"如何在前3秒吸引观众?" 3. 案例扩展:"举一个美食类账号的开头案例"
例如,我先问DeepSeek:“如何做好短视频脚本?”
对于如何吸引观众,我还是不懂,
那么我就可以继续追问DeepSeek“如何在前3秒吸引观众?”。
最后进一步的案例扩展,以便于我更好的理解。
我让DeepSeek再列举出一个例子“举一个美食类账号的开头案例”。
十、R1模型的三个开放特性
对于深度思考(R1)模型,DeepSeek做到了三个重要的开放特性,
让R1不仅仅是一个“黑盒”模型,它的思维过程、训练技术和模型参数都是透明开放的。
10.1、思维链全开放
R1的思维链是完全开放的,用户可以看到模型进行推理时的每一步逻辑。
这不仅是一个回答,而是一个完整的思考过程。
通过这种方式,用户能获得最终答案,还能够理解AI是如何得出这个结论的。
10.2、训练技术全部公开
DeepSeek采用了RL(强化学习)技术,通过极少的标注数据提高了推理能力。
所有的训练技术,包括模型的后训练过程和数据增强方法,都是公开的。
这让广大网友都能深入理解模型的训练过程,并且可以根据需要进行调整和优化。
10.3、开源模型
DeepSeek还将R1的部分模型进行开源。
虽然R1模型本身的参数高达660B,仅为GPT-4o的1/6(输入$0.25/百万token)通常只有大公司才能使用,
但DeepSeek也为社区提供了更小的开源模型,让更多的开发者和研究者可以使用。
最小的模型只有1.5B参数,适合个人开发者进行实验和开发。
这格局太顶了,帮助全球的开发者共同推动AI的发展。
避坑提醒
- 别同时开“深度思考+联网”,易卡顿。 - 复杂问题用R1,简单问题用V3,省时高效。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)