一. DeepSeek R1的来源

1. 梁文锋简介

在这里插入图片描述

  1. 1985年,出生于广东湛江。
  2. 2002年,以高考状元考入浙大电子信息工程专业。
  3. 2005年,获全国大学生电子设计竞赛一等奖。
  4. 2007年,考上浙大信息与通信工程研究生。
  5. 2008年,开始探索全自动量化交易。
  6. 2010年,获硕士学位,研究目标跟踪算法。
  7. 2013年,与徐进创立杭州雅克比投资公司。
  8. 2015年,成立杭州幻方科技,专注量化投资。
  9. 2016年,幻方推出首个AI模型,实现策略AI化。
  10. 2018年,幻方确立以AI为核心的发展战略。
  11. 2019年,研发“萤火一号”训练平台。
  12. 2020年,“萤火一号”AI超级计算机投入运作。
  13. 2021年,“萤火二号”投入10亿元,幻方资产破千亿。
  14. 2023年,宣布进军通用人工智能(AGI)。
  15. 2024年,DeepSeek发布V2和V3模型,公布技术细节。
  16. 2025年,DeepSeek发布R1模型,震动美国科技界。

2. 幻方量化的发展历程

在这里插入图片描述

  1. 2008-2014年,摸索探路。创始团队从零开始探索全自动交易。
  2. 2015年,创始元年。创立幻方量化,依靠数学与人工智能进行量化投资。创始团队意气风发,勇于创新,勤勉奋进,立志成为世界顶级的量化对冲基金。
  3. 2016年,第一个AI模型。2016年10月21日,第一个由深度学习算法模型生成的股票仓位上线实盘交易,使用GPU进行计算。在此之前,算法主要依靠线性模型和传统机器学习算法,模型计算主要依赖于CPU。
  4. 2017年,策略全面AI化。持续扩大AI算法研究团队和AI软硬件研发团队。至2017年底,几乎所有的量化策略都已经采用AI模型计算。
  5. 2018年,荣获金牛奖。确定以AI为公司的主要发展方向。复杂的模型计算需求使得单机训练遭遇算力瓶颈,同时日益增加的训练需求和有限的计算资源产生了矛盾,寻求大规模算力解决方案。首次获得私募金牛奖荣誉。
  6. 2019年,百亿量化。幻方AI(幻方人工智能基础研究有限公司)注册成立,致力于AI的算法与基础应用研究。AI软硬件研发团队自研幻方【萤火一号】AI集群,搭载了500块显卡,使用200Gbps高速网络互联。 幻方资本成立,获得香港九号牌。幻方量化跻身百亿私募。
  7. 2020年,【萤火一号】投入使用。【萤火一号】总投资近2亿元,搭载1100加速卡,于当年正式投用,为幻方的AI研究提供算力支持。 换房资本获批合格境外机构投资者资格,吸引海外资金长期投资A股市场。
  8. 2021年,幻方AI投入十亿元建设【萤火二号】。【萤火二号】一期确立一任务级分时调度共享AI算力的技术方案,从软硬件两方面共同发力:高性能加速卡、节点间200Gbps高速互联网络、自研分布式并行文件系统(3FS)、网络拓扑通讯方案(hfreduce)、算子库(hfai.nn),高易用性应用层等,
    将【萤火二号】的性能发挥至极致。幻方公益工作小组成立,以专业化可持续的公益方式回馈社会。
  9. 2022年,守望相助,突破极限。幻方量化共计向慈善机构捐赠2.2138亿元,公司员工"一只平凡的小猪"个人捐助1.38亿元,支持15家慈善机构的23个公益项目,在全国范围内帮助弱势群体,促进社会的公平和发展。
  10. 2023年,成立杭州深度求索人工智能基础技术研究有限公司。

3. DeepSeek LLM模型的发展历程

在这里插入图片描述

  1. 2024-01:DeepSeek LLM: Scaling Open-Source Language Models with Longtermism
  2. 2024-01:DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models
  3. 2024-01:DeepSeek-Coder: When the Large Language Model Meets Programming – The Rise of Code Intelligence
  4. 2024-02:DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
  5. 2024-03:DeepSeekVL: Towards Real-World Vision-Language Understanding
  6. 2024-05:DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model
  7. 2024-05:DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data
  8. 2024-06:DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence
  9. 2024-07:Let the Expert Stick to His Last: Expert-Specialized Fine-Tuning for Sparse Architectural Large Language Models
  10. 2024-08:Fire-Flyer AI-HPC: A Cost-Effective Software-Hardware Co-Design for Deep Learning
  11. 2024-08:DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search
  12. 2024-10:Janus: Decoupling Visual Encoding for Unified Multimodal Understanding and Generation
  13. 2024-11:JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation
  14. 2024-12:DeepSeek-VL2: Mixture-of-Experts Vision-Language Models for Advanced Multimodal Understanding
  15. 2024-12:DeepSeek-V3 Technical Report
  16. 2025-01:Janus-Pro: Unified Multimodal Understanding and Generation with Data and Model Scaling
  17. 2025-01:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
  18. 2025-03:DeepSeek-V3 / R1 推理系统概览

4. DeepSeek R1论文浅析

4.1. 评测效果

在这里插入图片描述
测试集介绍:

  1. AIME 2024 (Pass@1):数学竞赛。AIME是美国数学邀请赛,题目难度高,需创造性数学思维。
  2. Codeforces (Percentile):编程竞赛。Codeforces 是全球知名编程竞赛平台,题目涵盖算法、数据结构、动态规划等。
  3. GPQA Diamond (Pass@1):专业知识问答。GPQA是一个高难度问答数据集,涵盖科学、法律、医学等专业领域,需深度领域知识。
  4. MATH-500 (Pass@1):数学问题。包含500道高难度数学题(如数论、几何、微积分),需严格推导和符号运算。
  5. MMLU (Pass@1):综合知识理解。MMLU(Massive Multitask Language Understanding)涵盖57个学科(如历史、计算机、伦理等),测试广泛知识覆盖。
  6. SWE-bench Verified (Resolved):软件工程。SWE-bench 是软件工程任务测试集,要求模型修复真实GitHub仓库中的代码缺陷或实现功能。

总结:
在编码、数学、软件工程方面可以达到OpenAI-o1-1217的效果,在专业和综合知识领域略逊于OpenAI-o1-1217版本。
在业务上,可以作为OpenAI-o1的平替,且可以本地部署以保证企业私有数据的安全性。


4.2. 关键技术

在这里插入图片描述


4.2.1. DeepSeek-V3
  • 核心技术:
    在这里插入图片描述
  • 模型结构:
    在这里插入图片描述
  • Transormer模型结构:
    在这里插入图片描述

4.2.2. DeepSeek-R1-Zero
  • 顿悟时刻:通过重新评估其初始方法学会为问题分配更多思考时间。
    在这里插入图片描述
  • 主体处理流程:基于DeepSeek-V3基座模型,采用对于准确率奖励/格式奖励的规则驱动的大规模强化学习,采用GRPO的组相对策略优化算法,得到了一个纯粹通过强化学习增强的强推理模型,即是DeepSeek-R1-Zero。
  • 启示:它强调了强化学习的强大和美感:我们不是明确地教模型如何解决问题,而只是提供正确的激励,然后它自主发展出高级的解决问题策略。

4.2.3. DeepSeek-R1
  1. 冷启动(生成数据、微调):让R1-Zero生成几千条包括反思、验证的数据,经过人类注释后处理完善处理结果,形成几千条长COT数据。使用生成的几千条长COT数据,微调DeepSeek-V3-Base模型,从而增强模型的可读性和潜力。
  2. 以推理为导向的强化学习(强化学习):对于冷启动微调后的模型,采用对于准确率奖励/格式奖励/语言一致性奖励的面向推理的强化学习,知道其在推理任务上达到收敛。
  3. 拒绝采样和监督式微调(生成数据、微调):让训练以推理为导向的强化学习的模型收敛时,生成数据,通过人工过滤,收集了大约60万个推理相关的训练样本。加上20万的事实等非推理数据。使用上述80万条数据对模型进行两个周期的微调。
  4. 所有场景的强化学习(强化学习):基于规则驱动的奖励/基于奖励模型驱动的奖励,从而提升对于人类偏好、有用性、无害性等能力的提升。

4.3. 出圈的点

在这里插入图片描述

  • 2025年DeepSeek-R1的博客和模型开源类似于2023年Llama的开源。
  • OpenAI:发布o1后,不开源/隐藏思维过程/收费高
  • DeepSeek R1:开源且发布较为详细的技术报告,且整体训练的成本只有500余万美元,不到GPT4训练的十分之一
  • 意义:在非常有限的算力资源支持下,通过强大的算法创新,突破了算力瓶颈,也能够做出具有全球意义的领先成果。

5. 本小节参考文献

  1. 百度百科. 2024. “梁文锋.”
  2. High-Flyer. 2024. “History.”
  3. InfoQ. 2024. “刘知远详解 DeepSeek 出圈背后的逻辑”
  4. arXiv. 2025. “DeepSeek LLM: Scaling Open-Source Language Models with Longtermism.”
  5. GitHub. 2024. “DeepSeek-V3.”
  6. DeepSeek. 2024a. “DeepSeek LLM: Scaling Open-Source Language Models with Longtermism.”
  7. DeepSeek. 2024b. “DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models.”
  8. DeepSeek. 2024c. “DeepSeek-Coder: When the Large Language Model Meets Programming – The Rise of Code Intelligence.”
  9. DeepSeek. 2024d. “DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models.”
  10. DeepSeek. 2024e. “DeepSeekVL: Towards Real-World Vision-Language Understanding.”
  11. DeepSeek. 2024f. “DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model.”
  12. DeepSeek. 2024g. “DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data.”
  13. DeepSeek. 2024h. “DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence.”
  14. DeepSeek. 2024i. “Fire-Flyer AI-HPC: A Cost-Effective Software-Hardware Co-Design for Deep Learning.”
  15. DeepSeek. 2024j. “Let the Expert Stick to His Last: Expert-Specialized Fine-Tuning for Sparse Architectural Large Language Models.”
  16. DeepSeek. 2024k. “DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search.”
  17. DeepSeek. 2024l. “Janus: Decoupling Visual Encoding for Unified Multimodal Understanding and Generation.”
  18. DeepSeek. 2024m. “JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation.”
  19. DeepSeek. 2024n. “DeepSeek-VL2: Mixture-of-Experts Vision-Language Models for Advanced Multimodal Understanding.”
  20. DeepSeek. 2024o. “DeepSeek-V3 Technical Report.”
  21. DeepSeek. 2025a. “Janus-Pro: Unified Multimodal Understanding and Generation with Data and Model Scaling.”
  22. DeepSeek. 2025b. “DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning.”
  23. 知乎. 2025. “DeepSeek-V3 / R1 推理系统概览.”

二. DeepSeek R1的应用

1. 普通用户使用


网址或者手机APP使用


2. API调用

2.1. 对话


测试样例:你好?


2.2. 推理模型

在这里插入图片描述
测试样例:3.11和3.9哪个更大?


2.3. 多轮对话

在这里插入图片描述
测试样例:世界最高的山是什么?第二的是什么?


2.4. 对话前缀续写

在这里插入图片描述
测试样例:代码编写:使用python写一个快排的代码


2.5. FIM补全

在这里插入图片描述
测试样例:代码编写:规定输入和输出:斐波拉契数


2.6. JSON Output

在这里插入图片描述
测试样例:提取问答对


3. 大模型应用技术

3.1. RAG知识库

  • 流程图:
    在这里插入图片描述

  • 效果:
    在这里插入图片描述

3.2. Function Calling(函数调用)

  • 流程图:
    在这里插入图片描述

  • 效果:
    在这里插入图片描述

3.3. NL2SQL/图表

  • 流程图:
    在这里插入图片描述

  • 效果:
    在这里插入图片描述

4. 相关集成

4.1. DeepSeek官方开源项目集成

在这里插入图片描述


4.2. RAG知识库

在这里插入图片描述
RAGFlow:一款基于深度文档理解构建的开源 RAG引擎。


4.3. Agent智能体

在这里插入图片描述
Dify:一个支持 DeepSeek 模型的 LLM 应用开发平台,可用于创建 AI 助手、工作流、文本生成器等应用。


4.4. 即时通讯

在这里插入图片描述
茴香豆:一个集成到个人微信群/飞书群的领域知识助手,专注解答问题不闲聊


4.5. 代码编辑器

在这里插入图片描述
Cursor:基于VS Code进行扩展的AI Code编辑器


5. 常用AI工具推荐

5.1. 论文阅读

在这里插入图片描述
步骤:打开腾讯元宝 -> 上传论文 -> 发送 -> 点击深度阅读该文档 -> 点击总结/精度/翻译/脑图/生成学术海报


5.2. 智能编码

在这里插入图片描述
Cursor+DeepSeek/Qwen


5.3. 问答/DeBug

在这里插入图片描述
Grok/腾讯元宝/DeepSeek/Kimi


5.4. 制作PPT【文字->图片】

在这里插入图片描述
Napkin


6. 本小节参考文献

  1. Deepseek. 2025. “Deepseek.” Accessed March 22, 2025. https://www.deepseek.com/.
  2. Deepseek. 2025. “推理模型指南.” Accessed March 22, 2025. https://api-docs.deepseek.com/zh-cn/guides/reasoning_model.
  3. Deepseek AI. 2025. “Awesome Deepseek Integration.” Accessed March 22, 2025. https://github.com/deepseek-ai/awesome-deepseek-integration/blob/main/README_cn.md.
  4. Tencent Yuanbao. 2025. “Chat.” Accessed March 22, 2025. https://yuanbao.tencent.com/chat/naQivTmsDa.
  5. Cursor. 2025. “Cursor.” Accessed March 22, 2025. https://www.cursor.com/cn.
  6. Napkin AI. n.d. Accessed March 22, 2025. https://app.napkin.ai/.

三. DeepSeek R1的部署

1. 开源模型平台介绍

1.1. huggingface

在这里插入图片描述
Hugging Face 是一个领先的开源机器学习平台和社区,专注于自然语言处理(NLP),提供丰富的预训练模型、工具和数据集,支持开发者快速构建、共享和部署AI应用。


1.2. 魔搭社区

在这里插入图片描述
魔搭社区(ModelScope)是由阿里巴巴达摩院推出的开源AI模型社区,聚焦中文场景,提供丰富的预训练模型、开发工具及协作平台,助力开发者高效构建和部署人工智能应用。


1.3. DeepSeek R1的模型

在这里插入图片描述
DeepSeek R1及蒸馏模型


2. 推理引擎介绍

2.1. ollama

在这里插入图片描述
适用于个人单机部署


2.2. sglang

在这里插入图片描述
适用于企业级部署全量的DeepSeek R1


2.3. vllm

在这里插入图片描述
适用于企业级部署蒸馏的DeepSeek R1


2.4. xinference(强烈推荐)

在这里插入图片描述
整合多种推理引擎(强烈推荐),适用于企业级部署蒸馏的DeepSeek R1


3. 对话系统介绍

3.1. gradio

在这里插入图片描述
个人测试模型效果


3.2. open webui:

在这里插入图片描述
企业内部使用


4. 部署推荐

  • 推荐1
    硬件配置:个人PC电脑
    部署推荐:模型(DeepSeek R1量化版)+推理引擎(ollama)+对话界面(open-webui)
  • 推荐2
    硬件配置:专业的GPU设备(T4,A800,H800,H20等)
    部署推荐:模型(DeepSeek R1蒸馏版)+推理引擎(xinference)+对话界面(open-webui)
  • 推荐3
    硬件配置:专业的GPU设备【4台A800,2台H200/H20】
    部署推荐:模型(DeepSeek R1 671B)+推理引擎(sglang)+对话界面(open-webui)

5. 部署实践

5.1. 使用xinference部署DeepSeek蒸馏模型:

  • 步骤:
    在这里插入图片描述

  • 效果:
    在这里插入图片描述

5.2. 使用ollama部署【参考部署资料】:

5.3. 使用sglang部署DeepSeek R1 671B版本【参考SGLang的链接】

6. 本小节参考文献

  1. DeepSeek-AI. n.d. “DeepSeek-R1.” GitHub. Accessed March 22, 2025. https://github.com/deepseek-ai/DeepSeek-R1.
  2. Hugging Face. n.d. “Hugging Face.” Hugging Face. Accessed March 22, 2025. https://huggingface.co/.
  3. ModelScope. n.d. “My Overview.” ModelScope. Accessed March 22, 2025. https://www.modelscope.cn/my/overview.
  4. Ollama. n.d. “Ollama.” GitHub. Accessed March 22, 2025. https://github.com/ollama/ollama.
  5. Xorbitsai. n.d. “Inference.” GitHub. Accessed March 22, 2025. https://github.com/xorbitsai/inference.
  6. VLLM-Project. n.d. “VLLM.” GitHub. Accessed March 22, 2025. https://github.com/vllm-project/vllm.
  7. SGL-Project. n.d. “SGLang.” GitHub. Accessed March 22, 2025. https://github.com/sgl-project/sglang.
  8. Gradio-App. n.d. “Gradio.” GitHub. Accessed March 22, 2025. https://github.com/gradio-app/gradio.
  9. Open-WebUI. n.d. “Open WebUI.” GitHub. Accessed March 22, 2025. https://github.com/open-webui/open-webui.

总结

本文主要介绍了DeepSeek R1模型的背景、发展历程、技术细节、应用场景及部署方法。DeepSeek R1是由幻方科技创始人梁文锋带领团队研发的通用人工智能模型,基于DeepSeek-V3基座模型,通过强化学习等技术增强推理能力,并在编码、数学、软件工程等领域表现出色,部分性能接近OpenAI的模型。文章详细阐述了DeepSeek R1的关键技术、评测效果及其在普通用户、API调用、大模型应用技术等方面的应用。此外,文章还提供了DeepSeek R1的开源模型平台、推理引擎、对话系统的介绍,并推荐了不同场景下的部署方案,包括个人PC、专业GPU设备等。最后,文章通过实践步骤展示了如何使用xinference、ollama和sglang等工具部署DeepSeek R1模型。


Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐