大语言模型技术演进:DeepSeek-LLM、DeepSeek-V2、DeepSeek-V3、DeepSeek-R1
  • 初始阶段:DeepSeek LLM通过扩展模型规模和引入多阶段训练,提升了模型在多个领域的表现。
  • MoE架构引入:DeepSeek-V2引入MoE架构,通过MLA和DeepSeekMoE实现高效推理和经济训练。
  • 高性能和经济性:DeepSeek-V3进一步扩展模型规模,引入多令牌预测和无辅助损失的负载均衡策略,实现了更高的性能和更低的训练成本。
  • 推理能力提升:DeepSeek-R1通过强化学习和冷启动数据,显著提升了模型的推理能力,并通过蒸馏技术将推理能力扩展到小型模型。

img

DeepSeek LLM

论文题目:《DeepSeek LLM:Scaling Open-Source Language Models with Longtermism》

发表时间:2024年1月

论文地址:https://arxiv.org/pdf/2401.02954v1

在2024年1月前后的时间,基于解码器的Transformer大型语言模型(LLMs)的发展迅速,成为实现人工智能(AGI)的重要途径。尽管闭源产品如ChatGPT、Claude和Bard在计算资源和标注成本上具有优势,但开源LLMs的性能仍需提升。

本项目主要探索模型的缩放定律(scaling laws),并在两个广泛使用的模型配置**(7B和67B)上进行扩展。通过预训练、监督微调(***SFT***)和直接偏好优化(DPO)**,提升模型在代码、数学和推理等领域的性能。

scaling laws:即模型性能与其规模(如参数数量)、训练数据集大小以及用于训练的计算资源之间存在的一种可预测的关系。这种关系通常表现为随着这些因素的增长,模型性能会按照一定的幂律进行改善。

DeepSeek LLM 67B在一系列基准测试中超越了LLaMA-2 70B,特别是在代码、数学和推理领域表现突出。此外,开放式评估揭示出DeepSeek LLM 67B聊天模型与GPT-3.5相比展现出更优的性能。

方法概述

DeepSeek LLM,旨在通过长期视角推动开源语言模型的发展。

数据收集与预处理:首先,开发了一个包含2万亿token的数据集,并对其进行去重、过滤和重新混合去重阶段通过跨多个dump进行去重,过滤阶段通过详细的语义和语言学评估来增强数据密度,重新混合阶段则通过增加代表性不足领域的存在来平衡数据。

表1|各种常见 Crawl dumps 去重比率表1|各种常见 Crawl dumps 去重比率

模型架构:DeepSeek LLM的微观设计主要遵循LLaMA的设计,采用Pre-Norm结构和RMSNorm函数,使用SwiGLU作为前馈网络的激活函数。宏设计上,DeepSeek LLM 7B有30层,而67B有95层,以优化训练和推理。

表2 | DeepSeek LLM系列模型的详细规格表2 | DeepSeek LLM系列模型的详细规格

超参数选择:初始标准差为0.006,使用AdamW优化器,超参数为β1=0.9,β2=0.95,权重衰减为0.1。采用多步学习率调度器,学习率在2000个预热步后达到最大值,然后逐步降低。

图1 | 使用不同学习率调度器或不同参数设置的学习率调度器的训练损失曲线。该模型大小为16亿参数,在包含1000亿个token的数据集上进行训练。图1 | 使用不同学习率调度器或不同参数设置的学习率调度器的训练损失曲线。该模型大小为16亿参数,在包含1000亿个token的数据集上进行训练。

缩放定律:通过实验建模了计算预算C与最佳批量大小和学习率之间的幂律关系,公式如下:

img

图3 | 批量大小和学习率的缩放曲线。灰色圆圈代表泛化误差超过最小值不超过0.25%的模型。虚线代表拟合较小模型的幂律。蓝色星号代表DeepSeek LLM 7B和67B图3 | 批量大小和学习率的缩放曲线。灰色圆圈代表泛化误差超过最小值不超过0.25%的模型。虚线代表拟合较小模型的幂律。蓝色星号代表DeepSeek LLM 7B和67B

模型和数据缩放:采用IsoFLOP剖面方法拟合扩展曲线,公式如下:

img

图4 | IsoFLOP曲线和最优模型/数据分配。IsoFLOP曲线中的指标是验证集上每个字节的比特数。最优模型/数据缩放曲线中的虚线代表拟合较小模型(灰色圆圈)的幂律图4 | IsoFLOP曲线和最优模型/数据分配。IsoFLOP曲线中的指标是验证集上每个字节的比特数。最优模型/数据缩放曲线中的虚线代表拟合较小模型(灰色圆圈)的幂律

图5 | 性能缩放曲线。指标是验证集上的每秒比特数(bits-per-byte)。虚线代表拟合较小模型(灰色圆圈)的幂律。蓝色星号代表DeepSeek LLM 7B和67B。它们的性能被缩放曲线很好地预测了图5 | 性能缩放曲线。指标是验证集上的每秒比特数(bits-per-byte)。虚线代表拟合较小模型(灰色圆圈)的幂律。蓝色星号代表DeepSeek LLM 7B和67B。它们的性能被缩放曲线很好地预测了

DeepSeek-V2

论文题目:《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》

发表时间:2024年5月

论文地址:https://arxiv.org/pdf/2405.04434v5

在2024年5月前后的时间,大语言模型(***LLMs***)的快速发展,展示了人工智能(AGI)的曙光。然而,随着参数量的增加,模型的智能提升带来了更大的计算资源需求和推理吞吐量的潜在下降,限制了LLMs的广泛应用。

本项目主要目标是解决LLMs在训练和推理过程中资源消耗大的问题,通过创新架构(包括多头潜在注意力(***MLA***)和DeepSeekMoE)实现经济高效的训练高效的推理。

图1|(a) 不同开源模型下多模态语言模型(MMLU)准确率与激活参数的关系。(b) DeepSeek 67B(密集型)和DeepSeek-V2的训练成本与推理效率。图1|(a) 不同开源模型下多模态语言模型(MMLU)准确率与激活参数的关系。(b) DeepSeek 67B(密集型)和DeepSeek-V2的训练成本与推理效率。

方法概述

DeepSeek-V2,一种强大的MoE语言模型,通过创新的架构实现了经济和高效的训练和推理。

图2 | DeepSeek-V2架构示意图。MLA通过显著减少生成所需的KV缓存来确保高效推理,而DeepSeekMoE则通过稀疏架构以经济成本训练出强大的模型。图2 | DeepSeek-V2架构示意图。MLA通过显著减少生成所需的KV缓存来确保高效推理,而DeepSeekMoE则通过稀疏架构以经济成本训练出强大的模型。

**多头潜在注意力(***MLA***):**一种新的注意力机制,通过低秩键值联合压缩来显著减少推理时的键值缓存,从而提高推理效率。MLA的计算过程如下:

  • **标准多头注意力(MHA)**首先通过三个矩阵计算查询(q)、键(k)和值(v):

img

  • 然后,将q、k、v切片成多个头进行多头注意力计算:

img

  • 最后,通过softmax函数计算权重并进行加权和:

img

  • MLA通过低秩联合压缩键值对

img

图3 | 多头注意力(MHA)、分组查询注意力(GQA)、多查询注意力(MQA)和多头潜在注意力(MLA)的简化示意图。通过将键和值联合压缩成一个潜在向量,MLA在推理过程中显著减少了KV缓存图3 | 多头注意力(MHA)、分组查询注意力(GQA)、多查询注意力(MQA)和多头潜在注意力(MLA)的简化示意图。通过将键和值联合压缩成一个潜在向量,MLA在推理过程中显著减少了KV缓存

DeepSeekMoE:通过细粒度的专家分割和共享专家隔离来实现更高效的模型训练。DeepSeekMoE的基本思想是将专家分割成更细的粒度以提高专家的专业化,并通过隔离一些共享专家来缓解路由专家之间的知识冗余。具体计算过程如下:

  • 对于每个token,计算其FFN输出:

img

  • 通过设备限制路由机制来控制MoE相关的通信成本,确保每个token的专家分布在最多M个设备上。
  • 设计了三种辅助损失来控制专家级负载平衡、设备级负载平衡和通信平衡。
  • 采用设备级token丢弃策略来进一步缓解计算浪费。

DeepSeek-V3

论文题目:《DeepSeek-V3 Technical Report》

发表时间:2024年12月

论文地址:https://arxiv.org/pdf/2412.19437v1

近年来,大语言模型(LLMs)的快速发展,逐步缩小了向人工智能(AGI)迈进的差距。除了闭源模型外,开源模型如DeepSeek系列、LLaMA系列、Qwen系列和Mistral系列也在努力缩小与闭源模型的差距。

DeepSeek-V3,一个具有671B总参数的MoE语言模型,采用多头潜在注意力(***MLA***)和DeepSeekMoE架构(在DeepSeek-V2中已得到充分验证,展示了其在保持强大模型性能的同时实现高效训练和推理的能力),并引入无辅助损失的***负载均衡***策略多令牌预测训练目标以提高性能。

方法概述

DeepSeek-V3,自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练,用于解决大语言模型的高效推理和训练问题。

  • **多头潜在注意力(***MLA***):**MLA架构通过低秩联合压缩注意力键和值来减少推理过程中的KV缓存,从而提高推理效率。
  • **DeepSeekMoE架构:**DeepSeekMoE架构使用细粒度的专家并行和隔离一些专家作为共享专家,以提高训练效率。
  • **无辅助损失的***负载均衡***策略:**为了最小化辅助损失对模型性能的影响,提出了一种无辅助损失的负载均衡策略,通过引入偏置项来动态调整专家负载。其公式如下:

img

  • **多令牌预测(MTP)目标:**通过在每个位置预测多个未来token,增加训练信号的密度,从而提高模型性能。其训练目标如下:

img

性能对齐

DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。

img

图1 DeepSeek-V3及其对应版本的基准性能

  • 百科知识: DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。
  • 长文本: 在长文本测评中,DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。
  • 代码: DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型;并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。
  • 数学: 在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。
  • 中文能力: DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。

img

DeepSeek-R1

论文题目:《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》

发表时间:2025年1月

论文地址:https://arxiv.org/pdf/2501.12948v1

近年来,大语言模型(LLMs)的快速发展,逐渐缩小了与通用人工智能(AGI)的差距。推理能力作为LLMs的重要组成部分,通过**后训练(post-training)**可以显著提高模型在各种任务上的表现。然而,如何在不依赖监督数据的情况下提升模型的推理能力仍然是一个挑战。

本文主要研究内容:通过纯***强化学习***(***RL***)提升LLMs的推理能力,特别是通过DeepSeek-R1-Zero和DeepSeek-R1两个模型来实现这一目标。DeepSeek-R1-Zero是通过大规模RL训练而不依赖于监督微调(SFT)的初步模型,而DeepSeek-R1则结合了多阶段训练和冷启动数据来进一步提升性能。

DeepSeek团队已将 DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Qwen 和 Llama 从 DeepSeek-R1 蒸馏出的六个密集模型(1.5B、7B、8B、14B、32B、70B)开源。

方法概述

DeepSeek-R1系列模型,通过大规模强化学习和多阶段训练来提高LLMs的推理能力。

**DeepSeek-R1-Zero:**该模型直接对基础模型进行强化学习训练,不依赖任何监督微调数据。采用Group Relative Policy Optimization(GRPO)算法进行优化,公式如下:

img

**DeepSeek-R1:**该模型在DeepSeek-R1-Zero的基础上,引入冷启动数据和多阶段训练管道。具体步骤包括:

  • 收集数千条冷启动数据,用于微调基础模型。
  • 在冷启动数据微调后的模型上进行推理导向的强化学习。
  • 通过拒绝采样和SFT生成新的SFT数据,并结合DeepSeek-V3的监督数据进行再训练。
  • 最终通过额外的RL过程,结合所有场景的提示,得到DeepSeek-R1模型。

**蒸馏小模型超越 OpenAI o1-mini:**从DeepSeek-R1中蒸馏推理能力到更小的密集模型。使用Qwen2.5和Llama系列模型作为基础模型,通过简单的SFT蒸馏方法显著提升推理能力。

img

性能对齐 OpenAI-o1 正式版

DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

DeepSeek-R1的基准性能DeepSeek-R1的基准性能

视觉语言大模型技术演进:DeepSeek-VL、DeepSeek-VL2

img

DeepSeek-VL

论文题目:《DeepSeek-VL: Towards Real-World Vision-Language Understanding》

发表时间:2024年3月

论文地址:https://arxiv.org/pdf/2403.05525v2

大语言模型(***LLMs***)的成功推动了多模态模型的需求,这些模型能够处理多种模态的信息,如视觉和语言。现有的多模态模型在基准测试中表现良好,但在现实世界的应用中仍存在差距。开源模型在现实世界性能和用户体验方面与专有模型存在显著差距。

DeepSeek-VL,旨在通过数据构建、模型架构和训练策略来提高模型在现实世界中的应用性能。设计一个能够在现实世界场景中进行视觉-语言理解的模型。

图1 | DeepSeek-VL具备全面的多模态理解能力,能够处理逻辑图表、网页、公式识别、科学文献、自然图像以及复杂场景中的具身智能图1 | DeepSeek-VL具备全面的多模态理解能力,能够处理逻辑图表、网页、公式识别、科学文献、自然图像以及复杂场景中的具身智能

方法概述

DeepSeek-VL,用于解决视觉语言理解问题。

数据构建:数据集分为视觉语言预训练数据和视觉语言监督微调数据。预训练数据来自多个公共数据源,包括MMC4、Wiki、wikihow、Ebook教科书、Capsfusion、TaiSu和Detailed Caption等。微调数据则包括ShareGPT4V、LAION-GPTV、LVIS-Instruct4V等开源数据集,以及部分表格和图表数据。

**模型架构:**系统包含三个模块:混合视觉***编码器***、视觉***适配器***和大语言模型混合视觉编码器结合了SAM-B和SigLIP-L两个编码器,分别处理高分辨率和低分辨率图像。视觉适配器通过两层混合MLP连接视觉编码器和LLM。大语言模型基于DeepSeek LLM,采用Pre-Norm结构和SwiGLU激活函数。

img

**训练流程:**训练分为三个阶段:视觉语言适配器预热、联合视觉语言预训练和监督微调在第一阶段,仅训练视觉语言适配器;在第二阶段,联合优化语言模型和视觉适配器;在第三阶段,使用监督数据进行微调。

图4 | 在训练阶段2,不同多模态数据融合比例的比较性能结果。过多的多模态数据比例(多模态:语言=100%:0%)会导致大型语言模型显著遗忘语言能力。一个合适的比例(多模态:语言=70%:30%)可以有效地减轻语言遗忘的问题,同时增强模型的多模态能力。图4 | 在训练阶段2,不同多模态数据融合比例的比较性能结果。过多的多模态数据比例(多模态:语言=100%:0%)会导致大型语言模型显著遗忘语言能力。一个合适的比例(多模态:语言=70%:30%)可以有效地减轻语言遗忘的问题,同时增强模型的多模态能力。

DeepSeek-VL2

论文题目:《DeepSeek-VL2: Mixture-of-Experts Vision-Language Models for Advanced Multimodal Understanding》

发表时间:2024年12月

论文地址:https://arxiv.org/pdf/2412.10302v1

视觉-语言大模型(VLMs)在人工智能领域迅速崛起,这些模型能够无缝处理视觉和文本信息,扩展了大语言模型(LLMs)的能力。然而,现有的模型在处理高分辨率图像和复杂任务时存在局限性。

DeepSeek-VL2,一种基于MoE架构的视觉-语言模型,通过动态瓦片视觉编码策略和优化的多头潜在注意力机制来提高模型的性能和效率。

图1 | 不同开源模型中平均性能与激活参数对比。对MMBench v1.1、MMStar、MMMU(Val)、MathVista(TestMini)、AI2D(Test)和OCRBench的准确率取平均值。OCRBench的分数除以10,以将其缩放到[0,100]范围内。图1 | 不同开源模型中平均性能与激活参数对比。对MMBench v1.1、MMStar、MMMU(Val)、MathVista(TestMini)、AI2D(Test)和OCRBench的准确率取平均值。OCRBench的分数除以10,以将其缩放到[0,100]范围内。

方法概述

DeepSeek-VL2,用于解决大规模混合专家视觉语言模型的多模态理解问题。

图2 | DeepSeek-VL2概览。整体架构是一种llava风格的架构,包括一个视觉编码器、一个视觉语言适配器和一个基于MoE的大语言模型。图2 | DeepSeek-VL2概览。整体架构是一种llava风格的架构,包括一个视觉编码器、一个视觉语言适配器和一个基于MoE的大语言模型。

动态切片***视觉编码***策略:为了高效处理高分辨率图像的不同宽高比,DeepSeek-VL2采用了一种动态切片策略。该策略将高分辨率图像分割成多个局部切片,每个切片通过共享的视觉变换器进行处理,然后将提取的特征集成到语言模型中。这种方法避免了固定大小***编码器***的限制,提升了超高分辨率图像处理能力。

图3 | DeepSeek-VL2中动态分块策略的示意图。通过将图像划分为多个块,DeepSeek-VL2相比DeepSeek-VL实现了更强的细粒度理解能力。图3 | DeepSeek-VL2中动态分块策略的示意图。通过将图像划分为多个块,DeepSeek-VL2相比DeepSeek-VL实现了更强的细粒度理解能力。

**多头潜在***注意力机制***:**在语言组件中,DeepSeek-VL2利用了DeepSeekMoE模型,并采用了多头潜在注意力(MLA)机制。MLA通过将键值缓存压缩为潜在向量,显著降低了计算成本,提高了推理速度和吞吐量。此外,DeepSeekMoE框架还采用了稀疏计算技术,进一步提升了效率。

数据集构建:为了提升模型性能,DeepSeek-VL2构建了一个综合的视觉语言数据集。该数据集包括视觉语言对齐数据、视觉语言预训练数据和监督微调数据。通过对多种开源数据集进行混合和扩充,数据集在质量、数量和多样性方面得到了显著提升。

多模态能力

DeepSeek-VL2在一般视觉问答、模因理解、多图像对话和视觉故事讲述等方面展示了其强大的能力。模型能够准确识别地标、理解图表、描述模因中的幽默,并生成连贯的故事。

图4 | DeepSeek-VL2的一般问题回答能力。模型具备多方面的能力,包括识别地标、基于图像的诗歌创作、回答一般知识类问题、理解图表、识别文本等。图4 | DeepSeek-VL2的一般问题回答能力。模型具备多方面的能力,包括识别地标、基于图像的诗歌创作、回答一般知识类问题、理解图表、识别文本等。

**视觉定位:**在视觉定位基准测试中,DeepSeek-VL2在不同规模的模型中都取得了最佳结果。模型能够准确定位对象,甚至在模糊图像和未见过的对象上也能表现出色。

图8 | DeepSeek-VL2的视觉定位能力。该模型可以根据物体的类别名称、描述或某些抽象概念来定位物体。图8 | DeepSeek-VL2的视觉定位能力。该模型可以根据物体的类别名称、描述或某些抽象概念来定位物体。

**上下文视觉定位:**DeepSeek-VL2展示了其在上下文视觉定位中的能力,能够在给定一个图像的情况下,在另一个图像中找到相同类别的对象。

图10 | 使用DeepSeek-VL2进行上下文视觉定位。给定一张图片,无论是否有视觉提示,DeepSeek-VL2都能在另一张图片中找到相关物体。图10 | 使用DeepSeek-VL2进行上下文视觉定位。给定一张图片,无论是否有视觉提示,DeepSeek-VL2都能在另一张图片中找到相关物体。

多模态统一模型技术演进:JanusFlow、Janus、Janus-Pro

img

Janus

论文题目:《Janus: Decoupling Visual Encoding for Unified Multimodal Understanding and Generation》

发表时间:2024年10月

论文地址:https://arxiv.org/pdf/2410.13848

近年来多模态大模型在理解和生成领域取得了显著进展。然而,现有的多模态模型通常依赖于单一的视觉编码器来处理理解和生成任务,这导致了性能上的妥协,特别是在多模态理解方面。

Janus框架,通过解耦视觉编码来解决多模态理解和生成之间的冲突,从而提高模型的灵活性和性能。

图1 | Janus实现了多模态理解与视觉生成。Janus的表现优于现有的最先进统一多模态模型以及一些特定任务的多模态理解模型,同时也展现了强大的视觉生成能力。图像分辨率为384x384。图1 | Janus实现了多模态理解与视觉生成。Janus的表现优于现有的最先进统一多模态模型以及一些特定任务的多模态理解模型,同时也展现了强大的视觉生成能力。图像分辨率为384x384。

方法概述

Janus,一种自回归框架,用于统一多模态理解和生成。

图2 | Janus架构。与以往的方法不同,这些方法通常假设视觉理解和生成需要相同的视觉编码器,而Janus将视觉理解的视觉编码与视觉生成的视觉编码解耦。“Under. Encoder”和“Gen. Encoder”分别代表“理解编码器”和“生成编码器”。图2 | Janus架构。与以往的方法不同,这些方法通常假设视觉理解和生成需要相同的视觉编码器,而Janus将视觉理解的视觉编码与视觉生成的视觉编码解耦。“Under. Encoder”和“Gen. Encoder”分别代表“理解编码器”和“生成编码器”。

**视觉编码***解耦***:**首先,论文引入了两个独立的视觉编码路径:一个用于多模态理解,另一个用于多模态生成。这两个路径通过相同的变换器架构进行统一处理。解耦不仅缓解了视觉编码器在理解和生成任务中的冲突,还增强了框架的灵活性。

**训练过程:**Janus的训练分为三个阶段:

img

  • **阶段I:**训练适配器和图像头,创建视觉和语言元素在嵌入空间中的概念连接,使LLM能够理解图像并具有初步的视觉生成能力。
  • **阶段II:**统一预训练,使用多模态语料库进行预训练,使Janus能够学习多模态理解和生成。
  • **阶段III:**监督微调,使用指令调优数据对预训练模型进行微调,增强其指令跟随和对话能力。

**损失函数:**Janus是一个自回归模型,训练时采用交叉熵损失函数:

img

JanusFlow

论文题目:《JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation》

发表时间:2024年11月

论文地址:https://arxiv.org/pdf/2411.07975

大语言模型(LLMs)在学习和泛化新场景方面表现出色。研究人员开发了专门用于图像理解和文本到图像生成的复杂模型。最近的研究方向是创建能够同时处理这两种任务的统一系统。

JanusFlow,通过结合整流流和LLM架构来实现多模态理解和生成。JanusFlow的关键在于能够在大语言模型框架内直接训练整流流,消除了复杂的架构修改需求。

图1 | 使用JanusFlow进行多模态理解和图像生成。JanusFlow在视觉理解基准测试中超越了最先进的统一多模态模型和几种特定任务理解模型。它还能够生成高质量的图像。图像分辨率为384×384像素。图1 | 使用JanusFlow进行多模态理解和图像生成。JanusFlow在视觉理解基准测试中超越了最先进的统一多模态模型和几种特定任务理解模型。它还能够生成高质量的图像。图像分辨率为384×384像素。

方法概述

JanusFlow,用于解决在单一模型中统一图像理解和生成任务的问题。

图2 | 提出的JanusFlow架构。为了便于视觉理解,大语言模型(LLM)执行自回归的下一个词元预测来生成响应。对于图像生成,LLM使用具有校正流(rectified flow)的图像。从*t*=0时刻的高斯噪声开始,LLM通过预测速度向量迭代更新*zt*,直到达到*t*=1时刻。为简化起见,省略了变分自编码器(VAE)编码器、在生成过程中使用的跳跃连接(skip connection)以及*f*enc后的线性层。图2 | 提出的JanusFlow架构。为了便于视觉理解,大语言模型(LLM)执行自回归的下一个词元预测来生成响应。对于图像生成,LLM使用具有校正流(rectified flow)的图像。从t=0时刻的高斯噪声开始,LLM通过预测速度向量迭代更新zt,直到达到t=1时刻。为简化起见,省略了变分自编码器(VAE)编码器、在生成过程中使用的跳跃连接(skip connection)以及fenc后的线性层。

**自回归****语言模型:**首先,JanusFlow利用大语言模型(LLM)进行自回归预测。LLM处理输入序列中的文本和图像数据,文本被转换为离散令牌,图像被编码为特征映射。然后,LLM自回归地预测下一个令牌。

**修正流模型:**其次,JanusFlow使用修正流模型进行图像生成。生成过程从高斯噪声开始,LLM迭代更新噪声向量,直到达到时间步1。修正流的数学表达式为:

img

**解耦***编码器***:**为了提高模型性能,JanusFlow采用了解耦编码器设计。视觉编码器用于图像理解任务,而生成编码器和解码器则专门用于生成任务。这种设计避免了任务间的干扰,增强了理解能力。

**表示对齐***正则化***:**此外,JanusFlow引入了表示对齐正则化项,通过将理解编码器的特征与LLM的中间特征对齐,提高了生成质量。

Janus-Pro

论文题目:《Janus-Pro: Unified Multimodal Understanding and Generation with Data and Model Scaling》

发表时间:2025年1月

论文地址:https://arxiv.org/pdf/2501.17811v1

近年来统一的多模态理解和生成模型取得了显著进展,这些模型在视觉生成任务中增强了指令跟随能力,同时减少了模型冗余。然而,现有的方法通常使用相同的视觉编码器处理多模态理解和生成任务,导致在这两个任务上的性能不理想。

Janus-Pro,通过优化训练策略、扩展训练数据和增加模型规模来提升多模态理解和文本到图像指令跟随的能力。

图1 | Janus-Pro的多模态理解与视觉生成结果图1 | Janus-Pro的多模态理解与视觉生成结果

图2 | 比较Janus-Pro与其前身Janus的文本到图像生成效果。Janus-Pro在短提示下提供更稳定的输出,具有更高的视觉质量、更丰富的细节,以及生成简单文本的能力。图像分辨率为384x384。图2 | 比较Janus-Pro与其前身Janus的文本到图像生成效果。Janus-Pro在短提示下提供更稳定的输出,具有更高的视觉质量、更丰富的细节,以及生成简单文本的能力。图像分辨率为384x384。

方法概述

Janus-Pro,用于解决多模态理解和文本到图像生成任务中的性能问题。

**架构设计:**Janus-Pro的架构与Janus相同,核心思想是将多模态理解的视觉编码与生成任务的视觉编码解耦。对于多模态理解,使用SigLIP编码器从图像中提取高维语义特征;对于生成任务,使用VQ tokenizer将图像转换为离散ID。然后将这些特征序列拼接形成多模态特征序列,输入到LLM中进行处理。

图3 | Janus-Pro架构。将多模态理解的视觉编码与视觉生成解耦。“Und. Encoder”和“Gen. Encoder”分别代表“理解编码器”和“生成编码器”。图3 | Janus-Pro架构。将多模态理解的视觉编码与视觉生成解耦。“Und. Encoder”和“Gen. Encoder”分别代表“理解编码器”和“生成编码器”。

**优化训练策略:**修改了Janus的三阶段训练过程。第一阶段增加训练步数,充分利用ImageNet数据进行像素依赖性建模;第二阶段直接使用正常文本到图像数据进行训练,提高训练效率;第三阶段调整数据比例,增加多模态数据的比例,提升多模态理解性能。

**数据扩展:**在多模态理解方面,增加了约9000万样本,包括图像字幕数据、表格、图表和文档理解数据;在生成任务方面,增加了约7200万合成美学数据,使真实数据和合成数据的比例达到1:1,提高生成稳定性。

**模型扩展:**将模型规模扩展到7B参数,验证了视觉编码解码方法的可扩展性。

实验设计

**数据收集:**使用了DeepSeek-VL2数据集作为多模态理解预训练数据,并添加了约9000万样本;使用DeepSeek-VL2数据集中的其他数据集作为多模态理解微调数据;使用合成美学数据和平衡的真实数据作为生成任务的预训练数据。

**实验设置:**使用DeepSeek-LLM(1.5B和7B)作为基础语言模型,SigLIP-Large-Patch16-384作为理解任务的视觉编码器,生成任务的编码器具有16384的词汇表大小。所有图像均调整为384x384像素。

**训练过程:**在第二阶段使用早期停止策略,训练至270K步。使用HAI-LLM框架进行分布式训练,整个训练过程在16/32节点集群上进行,分别配备8个Nvidia A100(40GB)GPU。

性能分析

**多模态理解性能:**在MMBench基准测试中,Janus-Pro-7B取得了79.2分的成绩,超过了现有的统一多模态模型如Janus(69.4分)、TokenFlow(68.9分)和MetaMorph(75.2分)。

**文本到图像生成性能:**在GenEval基准测试中,Janus-Pro-7B取得了0.80的整体准确率,超过了Janus(0.61分)、DALL-E3(0.67分)和Stable Diffusion 3 Medium(0.74分)。在DPG-Bench基准测试中,Janus-Pro取得了84.19分的成绩,超过了所有其他方法。

**定性结果:**Janus-Pro在处理多模态理解任务时表现出强大的理解能力,生成的文本到图像高度逼真,细节丰富,能够准确捕捉提示中的语义信息。

图4|多模态理解和视觉生成能力的定性结果。该模型为Janus-Pro-7B,视觉生成的图像输出分辨率为384×384。图4|多模态理解和视觉生成能力的定性结果。该模型为Janus-Pro-7B,视觉生成的图像输出分辨率为384×384。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐