DeepSeek-V4 技术解读:百万 Token 上下文的新里程碑

本文基于 DeepSeek 官方技术报告,深入解读 DeepSeek-V4 系列模型的核心技术创新,探索其如何实现百万 Token 上下文的高效处理。


引言:突破长上下文效率瓶颈

大语言模型的"推理时扩展"(test-time scaling)范式正在重塑 AI 能力边界,但传统注意力机制的二次方计算复杂度成为了超长上下文和复杂推理过程的致命瓶颈。从复杂的智能体工作流到跨文档大规模分析,长周期场景的兴起使得高效支持超长上下文成为未来发展的关键。

DeepSeek-V4 系列正是为突破这一效率壁垒而生。今天,我们就来深度解读这份技术报告,看看 DeepSeek-V4 如何通过架构创新实现百万 Token 上下文的高效处理。


一、DeepSeek-V4 系列概览

DeepSeek-V4 系列包含两个强大的混合专家(MoE)语言模型:

  • DeepSeek-V4-Pro:1.6T 总参数,49B 激活参数
  • DeepSeek-V4-Flash:284B 总参数,13B 激活参数

核心特性

  • ✅ 原生支持100 万 Token上下文长度
  • ✅ 在 1M Token 场景下,V4-Pro 仅需 V3.2 27% 的单 Token 推理 FLOPs10% 的 KV Cache
  • ✅ V4-Flash 更是将效率推向极致:仅需 V3.2 的10% FLOPs7% KV Cache
  • ✅ 基于32T+ 高质量 Token预训练

请添加图片描述


二、核心架构创新

2.1 混合注意力机制:CSA + HCA

这是 DeepSeek-V4 最核心的创新之一,旨在解决长上下文场景下的计算瓶颈。

Compressed Sparse Attention (CSA)

CSA 结合了压缩和稀疏注意力策略:

  1. KV Cache 压缩:每 m 个 Token 的 KV Cache 压缩为 1 个条目
  2. 稀疏选择:使用 DeepSeek Sparse Attention (DSA),每个查询 Token 仅关注 k 个压缩后的 KV 条目
  3. 滑动窗口:保留少量最近 Token 的滑动窗口 KV 条目以增强局部依赖

请添加图片描述

关键技术

  • Lightning Indexer:低秩方式生成索引查询,快速选择 Top-k 压缩 KV 条目
  • 共享 KV-MQA:使用 Multi-Query Attention 进一步降低计算成本
  • 分组输出投影:将输出分成 g 组进行投影,降低计算负担
Heavily Compressed Attention (HCA)

HCA 采用更激进的压缩策略:

  • 每 m’ 个 Token(m’ ≫ m)的 KV Cache 压缩为 1 个条目
  • 不使用稀疏注意力,保持密集注意力机制
  • 同样保留滑动窗口 KV 条目
混合架构优势

通过 CSA 和 HCA 的交错混合配置,DeepSeek-V4 在长文本场景下实现了:

  • KV Cache 大小降低至基线的约 2%(1M 上下文场景)
  • 注意力 FLOPs 大幅减少
  • 支持原生百万 Token 上下文

2.2 流形约束超连接(Manifold-Constrained Hyper-Connections, mHC)

mHC 是对传统残差连接的增强,核心思想是将残差映射约束在特定流形上,增强信号传播稳定性。

与传统 Hyper-Connections 的区别

特性 HC mHC
残差映射矩阵 无约束 约束在双随机矩阵流形
数值稳定性 多层堆叠时不稳定 深度堆叠仍稳定
谱范数 可能无界 有界(≤1)

实现细节

  • 使用 Sinkhorn-Knopp 算法将残差映射矩阵投影到双随机矩阵流形
  • 输入和输出变换通过 Sigmoid 函数约束为非负且有界
  • 参数动态生成:分解为动态(输入相关)和静态(输入无关)组件

2.3 Muon 优化器

DeepSeek-V4 采用 Muon 优化器(而非传统的 AdamW)用于大部分模块,带来更快的收敛速度和更好的训练稳定性。

Muon 核心算法

# 伪代码示意
for each training step t:
    G_t = gradient(W)
    M_t = μ * M_{t-1} + G_t  # 动量缓冲
    O_t' = HybridNewtonSchulz(M_t)  # 正交化
    O_t = O_t' * max(n, m) * γ  # 重缩放
    W_t = W_{t-1} * (1 - ηλ) - η * O_t  # 权重衰减和更新

关键特性

  • 使用 Hybrid Newton-Schulz 迭代进行正交化(10 次迭代,分两阶段)
  • 前 8 步快速收敛,后 2 步精确稳定
  • 应用 Nesterov 技巧和权重衰减
  • 通过 RMSNorm 直接防止注意力 logits 爆炸,无需 QK-Clip

三、基础设施优化

3.1 细粒度通信 - 计算重叠(Expert Parallelism)

MoE 架构的专家并行(EP)需要复杂的节点间通信。DeepSeek-V4 提出了一种细粒度 EP 方案:

核心洞察:MoE 层中通信时间小于计算时间,因此通信延迟可以被计算隐藏。

Wave-based 调度

  • 将专家分割为多个 wave(波)
  • 每个 wave 包含少量专家
  • 一旦 wave 内所有专家完成通信,立即开始计算
  • 当前 wave 的计算、下一 wave 的 Token 传输、已完成专家的结果发送并发执行

性能提升

  • 一般推理负载:1.50~1.73 倍加速
  • 延迟敏感场景(如 RL rollout):高达 1.96 倍加速
  • 开源实现:MegaMoE

3.2 TileLang:灵活高效的 Kernel 开发

为应对复杂架构带来的数百个细粒度 Torch ATen 操作符,DeepSeek-V4 采用 TileLang(领域特定语言)开发融合 Kernel。

关键特性

  • Host Codegen:将主机端逻辑移至生成的代码中,CPU 验证开销从数百微秒降至**<1 微秒**
  • Z3 SMT 求解器:集成形式化整数分析,支持向量化、屏障插入等优化
  • 数值精度与位级可重现性:默认禁用 fast-math,提供 IEEE-754 兼容原语

3.3 高精度、确定性 Kernel 库

为确保训练和推理的位级一致性,DeepSeek-V4 实现了端到端的批不变(batch-invariant)和确定性Kernel。

批不变实现挑战

  • Attention:放弃 split-KV 方法,采用双 Kernel 策略
    • Kernel 1:单个 SM 计算整个序列的 Attention(高吞吐)
    • Kernel 2:多个 SM 计算单个序列(降低延迟),通过分布式共享内存确保位级一致
  • Matrix Multiplication:用 DeepGEMM 替代 cuBLAS,放弃 split-k 但通过优化弥补性能

四、训练与微调策略

4.1 预训练设置

模型 预训练 Token 数 上下文长度
V4-Flash 32T 1M
V4-Pro 33T 1M

数据构建

  • 多样化、高质量 Token
  • 覆盖多领域、多语言
  • 针对长上下文场景优化

4.2 后训练流程:两阶段范式

DeepSeek-V4 的后训练采用独立领域专家培养 + 统一模型整合的两阶段策略:

阶段 1:领域专家训练

  • 针对每个目标领域(数学、代码、智能体、指令遵循等)独立训练专家模型
  • 先进行 SFT(监督微调)建立基础能力
  • 再进行 RL(强化学习,使用 GRPO)优化领域对齐行为

阶段 2:On-Policy Distillation

  • 通过策略蒸馏整合多个专家
  • 统一模型作为学生,学习优化与教师模型的 reverse KL 损失
  • 最终得到兼具多领域能力的统一模型

五、性能评估

5.1 知识能力

  • SimpleQA / Chinese-SimpleQA:显著优于开源模型,接近闭源模型
  • MMLU-Pro / HLE / GPQA:在开源模型中领先,与 Gemini-3.1-Pro 差距缩小

5.2 推理能力

  • V4-Pro-Max:在标准推理基准上优于 GPT-5.2 和 Gemini-3.0-Pro
  • 与 GPT-5.4 和 Gemini-3.1-Pro 差距约3-6 个月的发展轨迹
  • V4-Flash-Max:在分配更大思考预算时达到可比性能,是高性价比选择

5.3 智能体能力

  • 公开基准:与 Kimi-K2.6、GLM-5.1 等开源模型相当
  • 内部评估:优于 Claude Sonnet 4.5,接近 Opus 4.5 水平

5.4 长上下文能力

  • 1M Token 上下文下表现强劲
  • 在学术基准上甚至超越 Gemini-3.1-Pro

六、技术亮点总结

6.1 效率突破

指标 V4-Pro vs V3.2 V4-Flash vs V3.2
单 Token FLOPs (1M 上下文) 27% 10%
KV Cache (1M 上下文) 10% 7%

6.2 架构创新

  1. 混合注意力(CSA + HCA):实现百万 Token 上下文的高效处理
  2. mHC:增强残差连接稳定性,支持更深网络
  3. Muon 优化器:更快收敛,更好稳定性

6.3 工程优化

  1. 细粒度 EP:通信 - 计算重叠,最高 1.96 倍加速
  2. TileLang:高效 Kernel 开发,CPU 开销<1 微秒
  3. FP4 量化感知训练:降低内存和计算成本

七、未来展望

DeepSeek-V4 的成功标志着长上下文处理进入新纪元:

  1. 百万 Token 上下文常态化:使长周期任务和更深层次的推理时扩展成为可能
  2. 在线学习基础:高效长序列处理为未来在线学习范式奠定基础
  3. 智能体应用:长上下文能力为复杂智能体工作流提供必要支撑

模型权重已开源


结语

DeepSeek-V4 通过架构创新和工程优化的完美结合,成功突破了长上下文处理的效率壁垒。混合注意力机制、流形约束超连接、Muon 优化器三大核心技术,配合细粒度的通信 - 计算重叠和高效的 Kernel 开发框架,使得百万 Token 上下文从理论走向实践。

这不仅是大模型效率优化的重要里程碑,更为未来的长周期任务、智能体应用和在线学习探索开辟了新的道路。

技术报告原文DeepSeek-V4 Technical Report


本文基于 DeepSeek 官方技术报告撰写,旨在帮助开发者更好地理解 DeepSeek-V4 的核心技术。欢迎在评论区交流讨论!


参考资料

  1. DeepSeek-V4 Technical Report - GitHub
  2. DeepSeek MoE Architecture - DeepSeek-V3 Paper
  3. Muon Optimizer - Jordan et al., 2024
  4. TileLang - Wang et al., 2026
  5. MegaMoE - DeepGEMM PR #304

标签:#DeepSeek #AI #大语言模型 #长上下文 #MoE #技术解读

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐