一、DeepSeek-R1概述

DeepSeek系列模型简介:

在这里插入图片描述

DeepSeek-R1 的技术突破主要体现在两个方面:首先,它使用纯强化学习来教导基础语言模型进行推理,无需人工监督;其次,它采用了创新的 Group Relative Policy Optimization (GRPO) 技术来提升训练效率。这些突破使得构建强大的推理模型变得更加简单,只需要一个优秀的基础模型和高质量的数据集。

从我个人的分析角度来说,可以概括总结为:程序 = 数据工程 + 算法。

  • 程序:DeepSeek-R1

  • 数据:训练数据(预训练文本数据、SFT数据、CoT数据)

  • 算法:RL算法(GPRO算法)

从DeepSeek-R1放出的信息来看,总结来看,还是有一些信息没有透明,比如训练数据和源代码。小结如下:

在这里插入图片描述

二、Open-R1

官方repo[1],DeepSeek-R1 的完全开放复制品,这个 repo 的目标是构建 R1 管道中缺失的部分,以便每个人都可以在它上面复制和构建。

HuggingFace 的复现计划围绕三个核心问题展开:

  1. 数据收集问题: 如何策划推理专用数据集?这涉及到数据的质量控制、多样性保证以及规模扩展。

  2. 模型训练问题: 如何在不同规模和架构的模型上找到最优超参数?这需要系统性的实验和验证。

  3. 扩展性问题: 在训练推理模型时,计算资源和数据之间的权衡该如何把握?这关系到模型的实用性和可复现性。

为解决这些问题,HuggingFace 设计了一个三阶段的复现策略。

在这里插入图片描述

从官方详细说明来看,打开的话,是这样的

在这里插入图片描述

目前我比较关注于知识提取,也就是数据合成这块,官方paper也没有放出来训练数据,而数据又是很关键的,因此我会侧重于数据的合成;从我个人的角度来说,我一直都比较侧重于数据的合成。

合成数据

在这里插入图片描述

Instruct Model:Qwen2.5-Math-1.5B-Instruct

SFT:官方提供了sft.py的训练脚本

而目前的问题是,如何基于Deepseek-R1生成合成数据。从官方的实现来看,是基于 Distilabel[2] 工具从模型生成合成数据。

基于R1蒸馏模型合成数据

基于distilabel工具的TextGeneration方法合成数据,通过vLLM加载蒸馏模型

from datasets import load_dataset
from distilabel.models import vLLM
from distilabel.pipeline import Pipeline
from distilabel.steps.tasks import TextGeneration


prompt_template = """\
You will be given a problem. Please reason step by step, and put your final answer within \boxed{}:
{{ instruction }}"""

dataset = load_dataset("AI-MO/NuminaMath-TIR", split="train").select(range(10))

model_id = "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B"  # Exchange with another smol distilled r1

with Pipeline(
    name="distill-qwen-7b-r1",
    description="A pipeline to generate data from a distilled r1 model",
) as pipeline:

    llm = vLLM(
        model=model_id,
        tokenizer=model_id,
        extra_kwargs={
            "tensor_parallel_size": 1,
            "max_model_len": 8192,
        },
        generation_kwargs={
            "temperature": 0.6,
            "max_new_tokens": 8192,
        },
    )
    prompt_column = "problem"
    text_generation = TextGeneration(
        llm=llm, 
        template=prompt_template,
        num_generations=4,
        input_mappings={"instruction": prompt_column} if prompt_column is not None else {}
    )


if __name__ == "__main__":
    distiset = pipeline.run(dataset=dataset)
    distiset.push_to_hub(repo_id="username/numina-deepseek-r1-qwen-7b")

基于R1模型合成数据

HuggingFace基于slurm管理部署DeepSeek-R1大模型。

slurm(Simple Linux Utility for Resource Management)是一个开源、容错和高度可扩展的集群管理和作业调度系统,适用于大型和小型Linux 集群。

执行官方提供的slurm脚本[3]即可。具体如下:

sbatch slurm/generate.slurm \
    --hf-dataset AI-MO/NuminaMath-TIR \
    --temperature 0.6 \
    --prompt-column problem \
    --model deepseek-ai/DeepSeek-R1 \
    --hf-output-dataset username/r1-dataset

通过prompt提示词,引导LLM输出数据。

三、小结

对于Open-R1来说,合成数据在基于DeepSeek-R1系列模型下,通过Distilable库来生成文本,关键的话,还是通过prompt引导输出对应格式的数据。


四、如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 2024行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐