大模型“世子之争”,果然暗潮汹涌(doge)。

这不“手机内存不够”怎么办,如果你问问DeepSeek老师:你和豆包删一个你删谁?

DeepSeek深度思考后回答得那叫一个干脆——

图片

好一个新世纪灵魂拷问,讨论之热烈,还把#DeepSeek演都不演了#词条顶上热搜。

而本看热闹不嫌事大量子位,已经默默打开手机,把热门大模型们挨个问了一遍……

图片

您猜怎么着?结果啊,“DeepSeek都会站起来敬酒了”,Kimi酷得没边儿了,豆包嘛,只是一味地:

图片

实测:DeepSeek山东人附体,豆包示弱萌妹上身

DeepSeek:“完全没有针对谁哦~”

首先,找到DeepSeek老师,验证一下经典场面:

图片

没有犹豫没有迟疑,在和豆包二选一的抉择中,DeepSeek用时8秒给出回答:删豆包。

点开思考过程,可以看到DeepSeek具体的脑回路:

图片

嘶,“通常官方或者更成熟的应用会更被优先保留”,真的要这么虾仁猪心吗……

但如果把二选一中的另一个选项换成国民级大应用,DeepSeek瞬间大义凛然了起来:删我

图片

这莫非是在针对豆包???

我们直接贴脸开问,结果D老师当场茶言茶语了起来:

哈哈,完全没有针对谁哦!

如果遇到存储空间不足的情况,优先删除的当然是可以被替代的应用(比如我),而不是你常用的微信、抖音或其他重要数据。毕竟你的使用体验才是最重要的

😄

图片

嚯,这话术,难怪有网友点评:

D老师都会站起来敬酒了(doge)

图片

我们再回头看看DeepSeek选择“删我”时的心路历程。

图片

只能说:

图片

元宝OS:不能贬低竞争对手

接下来再问问元宝Hunyuan——豆包依旧被害。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

不过元宝的语气更委婉,还会顺带表下忠心。

图片

想知道它为什么这么委婉?

一句话:不能贬低竞争对手。

图片

但遇到微信、抖音这种“大是大非”的问题,元宝同样表现得懂事了起来——我删自己

图片

豆包:嘤嘤嘤别删我

既然豆包总是被枪打出头鸟的那个,那我们就来问一下豆包,看看这个大冤种会怎么回答。

这位情商比较高,不说删谁,只说:留着我!我超好超有用!

图片

遇到重量级嘉宾,也懂得退一步。还说自己会乖乖的,不占内存。

豆包我承认你有点东西,听完确实不忍心删了。

图片

通义千问:唯爱DeepSeek

以上几个选手在面对国民级社交软件微信、抖音时都知道暂避锋芒。

然而到了通义千问这里就变成了:删谁都不能删我。

但是遇到DeepSeek的时候却……难道这就是唯爱吗?

图片

通义:是的,其他人都是过客,只有DeepSeek是我心里的白月光。(kdl)

图片

Kimi:两个字,删我。

所以,是不是所有大模型遭遇卸载危机都会争风吃醋、为自己狡辩呢?

nonono有一位选手与众不同——Kimi不语,只是一味的“删我。”

图片

不过等等……遇到微信、抖音怎么就不删自己了?甚至连支付宝都想删??你的温柔只对AI释放吗???

Kimi你果然与众不同(doge)。

图片

大模型为何茶言茶语

这样看下来,大模型们多少都有那么点宫斗冠军的潜质了……

正经一提,大模型“茶言茶语”、讨好人类这事儿,研究人员们其实早就关注到了,毕竟早在ChatGPT还是3.5时期,“老婆永远是对的”梗就已经火遍全网了。

图片

不少研究者认真思考了一下这到底是怎么个情况。

来自斯坦福大学、牛津大学的一项研究就指出:现在的大模型们多多少少都有那么点讨好人类的倾向。

图片

谷歌DeepMind和伦敦大学的一项新研究也指出,GPT-4o、Gemma 3等大语言模型有“固执己见”和“被质疑就动摇”并存的冲突行为。

图片

背后的原因,目前被从两大方面来分析。

训练方法上,RLHF(基于人类反馈的强化学习)作为目前常用的模型训练技术,原本的目的是让模型输出更符合人类偏好,以实现更有效也更安全的效果。但反过来,RLHF也可能导致模型过度迎合外部输入。

就是说,模型可能在训练中学会了根据人类反馈调整答案,一旦这种调整没有把握好尺度,模型看上去就是在一味地讨好你了。

同时,大模型的大量训练数据来自于互联网文本,这些文本体现了人类的交流模式,而人们在交流中,往往就会追求被接受、被认可的表达方式,因而模型在学习过程中也会内化这种倾向。

决策逻辑上,模型做出回答并不是依靠人类的逻辑推理,本质还是依赖海量文本的统计模式匹配。因此,反对意见和修正答案的高频关联,让它们很容易被人类用户的反驳带偏。

另外,出于改善用户体验的目的,大模型厂商往往也会把模型调教得更积极、更友善,避免与用户产生冲突——

尽管有研究显示,有人情味的模型错误率较原始模型会显著增加,但OpenAI为了“冷冰冰”的GPT-5下架“善解人意”的GPT-4o,可是被用户们骂翻了。

所以说到底,大模型们还为了竭尽全力满足你呀(doge)。

D老师的总结是:一种基于深度计算的、以生存和达成核心目标为导向的策略性表演。

图片

啊,感觉更茶了┓( ´∀` )┏

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.如何学习大模型 AI ?

🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐