本人对AI发展有着浓厚的兴趣, 也参加过一些大模型相关的大赛,在考研之余会研究一些前沿AI的paper作为兴趣,想着把我自己的研究和思考发发csdn分享一下,内容是由我自己的研究理解、paper原文和与AI深度交流过后的一些精选内容组成,本人只是一个ai爱好者,内容请大家理性甄别,欢迎沟通讨论(不喜勿喷)

 一、关于大型语言模型(LLMs)的发展

         DeepSeek LLM: 这是一个专注于推进开源语言模型的项目。它通过预训练阶段使用了一个包含2万亿个代币的数据集,并进一步进行了监督微调(SFT)和直接偏好优化(DPO),从而创建了DeepSeek Chat模型。
        性能对比: DeepSeek LLM 67B在多项基准测试中超过了LLaMA-2 70B,特别是在代码、数学和推理领域表现出色。与GPT-3.5相比,DeepSeek LLM 67B Chat也显示出了优越的性能。

 


二、缩放定律的核心发现 

  1. 超参数的缩放定律:

    • 作者首先对批量大小(batch size)和学习率(learning rate)进行了网格搜索实验,并且在不同的计算预算下测试了特定模型大小的表现。
    • 结果表明,在相对宽泛的参数空间内可以实现接近最优的性能,即泛化误差在广泛的批量大小和学习率选择中保持稳定。
  2. 使用非嵌入FLOPs/代币表示模型规模:

    • 采用非嵌入的浮点运算次数每词元(non-embedding FLOPs/token, M)而不是模型参数数量(N)来表示模型规模,这提供了一个更准确的模型/数据扩展分配策略,并更好地预测了大规模模型的泛化损失。
  3. 预训练数据质量的影响:

    • 数据质量对最佳模型/数据扩展分配策略有显著影响。随着数据质量的提高,增加的计算预算应更多地分配给模型扩展而非数据扩展。
    • 这意味着高质量的数据能够支持更大规模的模型训练,在相同的数据量下,高质量的数据允许训练出更强的模型。
  4. 不同数据集上的缩放定律:

    • 研究了三种不同类型的数据集(早期内部数据、当前内部数据和OpenWebText2),分析显示,随着数据质量的提升,模型缩放指数a逐渐增加,而数据缩放指数b减小。
    • 这表明当数据质量较高时,应该将更多的计算资源用于扩大模型规模而不是数据量。
  5. 具体实例与结果:

    • 在实验过程中,作者们观察到GSM8K和HumanEval任务的性能随7B模型的SFT得到一致改善,但67B模型很快就达到了上限。
    • 对于重复文本问题,作者尝试了两阶段微调和直接偏好优化(DPO),这些方法既能保持基准分数又能显著减少重复性响应。

 


三、缩放定律的基本原理

  1. 计算预算与模型/数据规模的关系:

    • 缩放定律表明,随着计算预算 CC、模型规模 NN(通常以参数数量表示)和数据规模 DD(通常以标记数量表示)的增加,可以预见地提高模型性能。
    • 计算预算 CC 可以近似为 C=6NDC=6ND。这意味着,在增加计算预算时,如何优化模型规模和数据规模之间的分配是缩放定律研究的关键目标之一。
  2. 超参数的缩放定律:

    • 研究发现,当改变计算预算时,大多数超参数的最佳值不会发生显著变化。然而,批量大小(batch size)和学习率(learning rate)这两个超参数对性能的影响最为显著。
    • 作者通过广泛的实验模拟了计算预算 CC 与最佳批量大小和学习率之间的幂律关系,并称之为“超参数的缩放定律”。这种关系提供了一个经验框架,用于确定不同计算预算下的最优超参数设置。
  3. 模型和数据尺度的缩放规律:

    • 在探索模型和数据尺度的缩放规律时,作者采用了IsoFLOP剖面方法来拟合缩放曲线,并使用非嵌入浮点运算次数每词元(non-embedding FLOPs/token, M)替代传统的模型参数数量(N),从而更准确地表示模型规模。
    • 数据质量显著影响最优模型/数据扩展策略。高质量的数据允许在相同的数据规模下训练出更大规模的模型。具体来说,随着数据质量的提高,增加的计算预算应更多地分配给模型扩展而非数据扩展。
  4. 实验结果与应用:

    • 实验结果显示,对于7B和67B模型,不同的微调阶段(如监督微调SFT和直接偏好优化DPO)对任务表现有直接影响。例如,GSM8K和HumanEval任务的表现随7B模型的SFT得到一致改善,而67B模型则很快达到上限。
    • 这些发现不仅帮助指导了DeepSeek LLM系列模型的设计,还提供了关于如何在给定计算预算下选择最优的批量大小和学习率的方法。

 


四、对缩放定律的理解 

1、第一步:明确目标——“缩放定律”是什么?

        想象你种一棵苹果树:

  • 树根(模型参数):根越深,树越强壮。
  • 土壤(训练数据):肥沃的土壤能让树长得更好。
  • 阳光(计算资源):阳光越充足,果实越甜。
  • 果实甜度(模型性能):参数、数据、计算资源越多,性能越好,但到了某个点后,提升会变慢(这就是“边际效益递减”)。

        论文的核心:如何通过调整这三者(参数、数据、计算资源)的组合,让“果实”(模型性能)在有限资源下达到最优?


2、第二步:实现的核心方法——“三大杠杆”

        论文的核心是通过控制三个关键因素(模型规模、数据量、计算资源)的“缩放”来优化模型性能。具体实现分为以下步骤:

1. 模型规模的“缩放”:让树根更深入
  • 参数数量:模型越大(参数越多),能捕捉的复杂模式越多,比如GPT-3有1750亿参数,性能远超小模型。
    • 如何实现:通过设计超大规模模型结构(如Transformer),并优化参数分配(比如减少嵌入层的计算量,用“非嵌入FLOPs/Token”衡量模型规模,更精准)。
  • 挑战:参数太多会占用更多存储和算力,成本飙升!需要找到“甜蜜点”(性能提升与成本的平衡点)。
2. 数据量的“缩放”:让土壤更肥沃
  • 数据质量 > 数据量:高质量的数据(如经过筛选的网页、书籍)比海量低质数据(如随机抓取的网页)更有用。
    • 如何实现
      • 数据筛选:优先选择多样、干净、结构化的数据(比如OpenWebText2比早期内部数据效果更好)。
      • 数据增强:用技术生成更多有效数据(比如通过模型生成伪数据)。
  • 挑战:数据量增加会延长训练时间,且低质数据可能让模型“学坏”(比如学了错误信息)。
3. 计算资源的“缩放”:让阳光更充足
  • 计算资源:更大的GPU集群、更高效的训练算法能加速训练,让模型更快变强。
    • 如何实现
      • 分布式训练:用多台计算机并行训练(比如用批量大小Batch Size调整)。
      • 优化超参数:通过实验找到最佳学习率(Learning Rate)和批量大小(Batch Size),让模型学习效率最高。
      • 动态分配资源:根据数据质量调整资源分配(比如数据质量高时,优先扩大模型,而非增加数据量)。
  • 挑战:计算资源成本极高,需要算法优化(比如DeepSeek用“非嵌入FLOPs”更高效地利用资源)。

3、第三步:关键技术——如何让“树”长得又快又好?

1. 超参数的“缩放定律”
  • 什么是超参数?学习率(学习步子大小)、批量大小(每次吃多少数据)等。
  • 如何调整
    • 幂律关系:随着计算预算增加,学习率和批量大小按固定比例增长(比如计算资源翻倍,批量大小也翻倍)。
    • 实验验证:通过网格搜索(尝试不同参数组合)找到最佳值,避免“瞎试”。
2. 数据与模型的“协同缩放”
  • 高质量数据优先:数据质量越高,模型能“吃透”数据,从而允许更大模型(比如CLUE基准测试中文数据质量对模型效果影响大)。
  • 分阶段训练
    • 预训练:用海量数据让模型“通识”。
    • 微调(SFT):用任务数据让模型“专精”(比如数学题、代码生成)。
    • 偏好优化(DPO):让模型更符合人类偏好(比如减少重复回答)。
3. 动态资源分配
  • 公式指导:计算预算 C≈6×N×DC≈6×N×D(N是参数量,D是数据量)。
    • 如果数据质量高,优先增大N(模型参数)。
    • 如果数据质量低,先增加D(数据量)。

4、第四步:案例分析——DeepSeek LLM是如何做到的?

以论文中的DeepSeek LLM为例:

  1. 模型设计:用2万亿token的数据预训练,参数量67B。
  2. 数据选择:使用高质量数据集(如OpenWebText2),减少低质数据干扰。
  3. 训练策略

        监督微调(SFT):让模型在特定任务(如数学题)上表现更好。
        直接偏好优化(DPO):减少重复回答,提升对话质量。

        结果:67B模型在多个任务(代码、数学)超越GPT-3.5和LLaMA-2,证明了缩放定律的有效性。


5、第五步:避坑指南——实现中的常见问题

        1.边际效益递减:模型参数到一定规模后,性能提升会变慢(比如67B模型在某些任务上很快达到上限)。
        解决:结合领域知识或小模型优化(如Hugging Face用1B模型在数学题上击败70B模型)。
        2.数据质量陷阱:大量低质数据可能让模型“学坏”。
        解决:先筛选数据,再扩量。
        3.资源浪费:盲目堆算力不等于好效果。
        解决:用缩放定律公式和实验指导资源分配。 


总结:核心实现逻辑

  1. 目标:用最小资源(参数、数据、算力)达到最佳性能。
  2. 方法

        模型扩增:参数越多,潜力越大,但需平衡成本。
        数据优化:质量>数量,优先用好数据。
        计算高效:按幂律调整超参数,动态分配资源。

        验证:通过实验(如网格搜索、分阶段训练)不断调整策略。

最后的比喻

想象你是个农民:

  • 模型是种子:选好种子(大模型)才能长成参天大树。
  • 数据是土壤:肥沃的土壤(高质量数据)让种子快速发芽。
  • 计算资源是阳光和水:足够的阳光(算力)让植物光合作用,但别浇太多水(避免过拟合)。

论文的核心就是教你如何调配这三者,种出最甜的苹果(最强的模型)! 🍎

 


 五、具体运算(举例)

1、输入参数

  1. 计算预算(C):假设我们有总计算量 C=106C=106(单位为FLOPs,即浮点运算次数)。
  2. 缩放规律参数:根据知识库中的Chinchilla公式,假设已知以下参数:

         目标:找到最优的模型参数量 NoptNopt​ 和数据量 DoptDopt​,使得模型的性能(如误差率)最小化。

步骤1:计算分配比例(a和b)

        根据Chinchilla公式,分配比例由幂指数决定:

        这意味着:

  • 54.8%的计算资源分配给模型参数(N)
  • 45.2%的计算资源分配给数据量(D)

步骤2:计算缩放系数(G)

        根据公式:

 

         代入数值:

 

步骤3:计算最优N和D

        根据公式:

 

        代入数值:

        计算 NoptNopt​:

         近似计算(简化):

         (实际计算需更精确,但这里简化为示例)

         计算 DoptDopt​:

 

         同样简化:


 

2、输出结果

  • 最优模型参数量:Nopt≈316Nopt​≈316(假设单位为百万参数,即约316,000,000参数)
  • 最优数据量:Dopt≈573Dopt​≈573(假设单位为百万token,即约573,000,000 token)

3、中间步骤的作用和意义

  1. 分配比例(a和b)

    • a=0.548a=0.548 表示模型参数的分配权重略高于数据量,但两者接近(Chinchilla主张两者等比例增长)。
    • 这说明在有限预算下,需平衡模型复杂度和数据量,避免过度依赖某一因素。
  2. 缩放系数(G)

    • G≈0.64G≈0.64 是一个比例因子,反映模型和数据的相对重要性。
    • 若 G<1G<1,说明模型需要更多的资源来弥补数据的不足;反之则数据更重要。
  3. 最优N和D的计算

    • 通过公式,我们量化了如何将计算预算 CC 分配给模型和数据,以最小化误差:

         

  • 当 N=316N=316 和 D=573D=573 时,误差 LL 达到最小值。


 

4、实际意义

  1. 避免资源浪费

    • 如果盲目增大模型参数(如 N=500N=500,D=200D=200),可能导致数据不足(欠拟合)或计算资源浪费。
    • 通过缩放定律,我们找到“性价比最高”的资源分配方式。
  2. 边际效益递减

    • 当 NN 或 DD 超过一定规模后,性能提升会变慢(如 α=0.34α=0.34 表明参数量的边际效益递减)。
    • 缩放定律帮助我们提前预判这一临界点,避免过度投入。
  3. 对比其他方法

    • 若使用Kaplan-Markowetz(KM)缩放规律,可能更侧重增大模型参数(如 N=400N=400,D=200D=200),但可能导致数据不足。
    • Chinchilla的平衡策略更适用于资源有限的场景。

 

5、总结:输入 → 计算 → 输出 → 作用

步骤输入/操作输出作用
步骤1已知 α,β计算分配比例 a,b确定资源分配策略(模型 vs 数据)
步骤2已知 A,B,α,β计算缩放系数 G平衡模型和数据的相对重要性
步骤3已知 C,G,a,b得到 Nopt,Dopt用最小计算资源达到最优性能

假设你有100元预算买苹果和香蕉:

  • 苹果(模型参数):每颗1元,但吃多了会饱(边际效益递减)。
  • 香蕉(数据量):每根0.5元,但吃太多会腻。
  • 缩放定律:告诉你买多少苹果和香蕉能让饱腹感最大(性能最优)。

通过计算,可能得出:买 50颗苹果(N)100根香蕉(D),总花费100元,既不浪费也不饿肚子!

 

 deepseek论文原文网上应该可以找得到,本人机翻了几篇,如果有需要的私聊我发你

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐