导读

在大语言模型(LLM)的发展浪潮中,架构的选择对于模型的性能、效率和应用场景起着至关重要的作用。DeepSeek没有随波逐流采用当下流行的Decoder only架构,而是另辟蹊径选择了混合专家(MOE)架构,这背后有何考量呢?今天,就来拆解下。

Decoder only架构与MOE架构概述unset

Decoder only架构

Decoder only架构专注于从一系列输入生成或预测输出,通常用于文本生成任务。以GPT系列为代表,其优点是具备强大的生成能力,能够生成连贯、有创造性的文本,且灵活性高,适用于各种生成型任务。但缺点是有限的理解能力,在面对复杂输入数据时,理解效果可能不如Encoder-Only或Encoder-Decoder架构。同时,它需要大量的训练数据来提高生成文本的质量和多样性。

MOE架构

图片

MOE架构由多个专业化的子模型即“专家”组合而成,每一个“专家”都处理其擅长的领域内的任务。核心组件包括负责判定输入样本该由哪个专家模型处理的GateNet,以及一组相对独立的专家模型Experts。其核心思想是通过选择性激活子模型来提高模型的计算效率和表达能力。

DeepSeek选择MOE架构的原因unset

图片

  • 计算资源与效率优势

  • 降低计算成本:传统的Decoder only架构在每次前向传播时,所有层和节点都会参与计算,即便部分参数贡献小,也会浪费计算资源。而DeepSeek的MOE架构,以DeepSeek-V3版本为例,总参数量高达6710亿,但每次计算激活的参数量只有370亿,仅为总参数量的5.5%。相比之下,Decoder only架构的模型每次计算激活的参数量就是整个模型的参数量,没有“打折”。

  • 提升训练与推理速度:MOE架构在预训练和推理方面都具有速度优势。由于在训练和推理过程中只激活部分专家,在相同的计算预算下,MOE可以显著扩大模型或数据集的规模,并且通常能够更快地达到与Decoder only架构模型相同的性能水平。

  • 模型性能与扩展性考量

  • 增强模型表达能力:MOE架构通过多个专家处理不同类型的输入数据或任务,使得模型能够更好地捕捉数据的复杂模式和细微差别。比如在处理多领域知识时,不同专家可以分别擅长不同领域,如科学、历史、文学等,从而提升模型在各种任务上的准确性和表现。在一些多领域的评测中,采用MOE架构的DeepSeek-V2在Align Bench上展现出了顶级性能,甚至超过了GPT-4,且与GPT-4 Turbo不相上下。

  • 便于模型扩展:MOE架构允许模型在保持计算成本相对稳定的情况下增加参数数量,具有更好的扩展性。可以轻松扩展到非常大的模型规模,如万亿参数模型,这为模型处理更复杂、更庞大的任务提供了可能,也适应了大模型发展的趋势。

  • 多任务处理能力需求

  • 适应多领域任务:在实际应用中,语言模型需要处理多种类型的任务,如文本生成、知识问答、推理计算、翻译等。MOE架构在多任务学习中表现出色,不同的专家可以专门负责不同的任务类型,使得模型能够在多个任务上都取得较好的性能。例如SwitchTransformer在所有101种语言上都显示出了性能提升,证明了MOE在多任务学习中的有效性。

  • 提升综合性能:相比之下,Decoder only架构虽然在文本生成任务上表现出色,但在其他一些需要综合理解和处理能力的任务上可能存在局限性。MOE架构能够通过整合不同专家的能力,提升模型的综合性能,更好地满足实际应用中的多样化需求。

  • 创新与优化空间更大

  • 独特的路由机制与训练策略:MOE架构的门控网络和路由机制为模型的创新和优化提供了更多空间。研究人员可以通过改进门控网络的设计、优化专家选择策略等方式,进一步提高模型的性能和效率。例如,DeepSeek-V2采用了设备受限路由和辅助损失来实现负载均衡,确保了高效扩展和专家专业化。

  • 融合其他技术的潜力:MOE架构可以更容易地与其他先进技术进行融合,如多模态信息融合、强化学习等。这使得模型能够更好地处理复杂的现实世界问题,拓展应用场景。例如,可以将图像、音频等多模态信息与文本信息结合,通过不同的专家进行处理,实现更强大的多模态交互功能。

MOE架构面临的挑战及DeepSeek的应对策略

  • 训练不稳定性:由于每个输入样本仅触发部分专家,导致不同专家的梯度更新频率不同,可能会导致模型参数更新不稳定,影响整体模型的收敛性。DeepSeek通过采用一些稳定训练的技术,如优化的梯度更新算法、增加辅助损失函数等,来平衡不同专家的训练,提高模型的稳定性。

  • 负载均衡问题:路由机制的随机性和输入数据的特性,可能导致某些专家承载的计算负载远高于其他专家。DeepSeek-V2采用了设备受限路由和辅助损失来实现负载均衡,确保各个专家能够均衡地参与计算,提高计算效率和模型训练效果。

  • 微调挑战:MOE模型在微调时可能会面临迁移学习效果不确定的问题,某些专家可能并未得到充分训练。DeepSeek在微调过程中,会根据具体任务的特点,对专家进行有针对性的训练和调整,同时优化门控网络,使得模型能够更好地适应新任务。

  • 部署复杂性:MOE模型通常比传统的稠密模型更加复杂,在实际部署中需要针对不同硬件环境进行优化。DeepSeek的研发团队致力于开发高效的部署工具和优化策略,以降低部署难度,提高模型在不同硬件平台上的运行效率。

总之,DeepSeek选择MOE架构是基于对计算资源、模型性能、多任务处理能力以及创新潜力等多方面的综合考量。尽管MOE架构面临一些挑战,但DeepSeek通过一系列的创新和优化措施,充分发挥了MOE架构的优势,使其在语言模型领域取得了令人瞩目的成绩,为大语言模型的发展提供了新的思路和方向。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐