恭喜学员拿下百度和蔚来汽车offer!学员反馈项目的很多问答都跟面试官的提问重合!这个项目题库都是我根据学员面试遇到的问题积累起来的,随着学员面试反馈同步更新~

两家凑巧同一天放出了解题推理模型,简单对比着看了下实现方案,o1 类模型实现并没有和大家早期推测的那样用上 MCTS,PRM 这些方法,个人感觉也是太复杂的方法 scaling 不了。

目前各家用的方案看起来更像是 sft+rl 的加强版,把推理过程内含进生成,而不是用结构去引导生成。两家效果看报告比较接近,个有所长。

code 和 math deepseek 强了一点点,kimi 支持 vision。base 的 rl 基于 token, o1 的 rl 基于思考过程的 node,更符合直觉。

总体上,kimi 的方案是 pretraining,vanilla supervised fine-tuning (SFT),long-CoT supervised fine-turning,and reinforcement learning (RL)。

kimi 的方案可能更接近 openai o1,先用高质量的 Cot 数据 finetune一个推理模型,然后用一堆 rm 进行大规模的强化学习,路子比较传统一些。讲的比较清楚。

deepseek 的方案是 pretrainning,Cold start SFT,DeepSeek-R1-Zero,Rejection Sampling and SFT,RL2 for all Scenarios。

deepseek 方案最重要的步骤是 DeepSeek-R1-Zero,用了一个 cot 的 prompt 模板,然后一堆基于规则的 reward 模型,强化学习用的 GRPO,方法比较直接。

但是 deepseek 的方案从 base model 直接训练推理能力,实在太强了,有种大力出奇迹的美。

总体来说,deepseek 方案创新度更高,kimi 方案可能更接近 openai 的路子。

01

kimi 方案的一些细节

vanilla SFT

非推理任务,包括问答、写作和文本处理,先人工标注构建一个种子数据集,训练一个种子模型。

随后收集多样化提示,用种子模型为每个提示生成多个回复。标注者对这些回复进行排序,对排名最高的回复进行优化,以生成最终版本。

对于数学和编程问题等推理任务,基于规则和奖励模型的验证比人工判断更准确和高效,利用拒绝采样来扩展 SFT 数据集。

Long-CoT Supervised Fine-Tuning

这一步应该是让模型具有长思维链能力,方便后续 RL 学习。

首先要构建一套 RL Prompt,满足 3 个要求 Diverse Coverage(多样性)、Balanced Difficulty(难度均衡)、Accurate Evaluability(方便评估),然后构建了一个小而高质量的长链思维(long-CoT)预热数据集,其中包含针对文本和图像输入的经过准确验证的推理路径。

这种方法类似于拒绝采样(RS),但侧重于通过提示工程生成长链思维推理路径。

生成的预热数据集旨在封装对人类推理至关重要的关键认知过程,例如规划,即模型在执行前系统地列出步骤;评估,涉及对中间步骤的批判性评估;反思,使模型能够重新考虑并优化其方法;以及探索,鼓励考虑替代解决方案。

通过对该预热数据集进行轻量级的监督微调(SFT),经过微调后模型生成的回复更详细且逻辑一致更好。

ps:RL Prompt 具体什么样子,怎么指导 Long Cot 不太清楚。

RL

这部分篇幅很多,讲了推理问题的路径搜索和策略优化算法,但是看最后的 gradient 公式,就是正常的 policy gradient,很多东西都内含进生成里面了,比如策略 z。

02

Deepseek 方案的一些细节

冷启动,针对 DeepSeek-R1-Zero 的可读性差,格式差,不符合人类偏好的问题,做了几千条冷启动数据 finetune。

Reasoning-oriented Reinforcement Learning,这个阶段类似 DeepSeek-R1-Zero 阶段,同时为了为了缓解语言混合问题,强化学习训练中引入了语言一致性奖励,score 为目标语言词汇在思维链中所占的比例。

Rejection Sampling and Supervised Fine-Tuning,利用推理数据和非推理数据一起进行 SFT,以增强模型在写作、角色扮演和其他通用任务中的能力。

Reinforcement Learning for all Scenarios,二次强化学习阶段,旨在提高模型的有用性和无害性,同时优化其推理能力,对于推理数据,用基于规则的奖励来指导数学、代码和逻辑推理领域的学习过程。

对于通用数据,采用奖励模型来捕捉复杂和微妙场景中的人类偏好。

03

总结

deepseek 方案看起来更简洁,创新程度更高,但是对工程能力要求更高,看起来简单实现起来就不是那么回事了。

kimi 的方案可能更接近 openai o1,论文写的比较详细,抄作业的难度会更低一点。

目前推理模型的核心还是高质量的 cot 推理数据加上上规模的强化学习。相信后面还会有很多接近 o1 效果的模型出现。

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐