一、【 什么是大模型微调?】

1. 大模型是什么?
大型语言模型通过海量文本训练,掌握语言规律和世界知识。例如,GPT-3拥有1750亿参数,能生成流畅文本、完成问答等任务。其核心能力源于“预测下一个词”的预训练过程。

2. 微调的定义与价值
微调是在预训练模型基础上,用特定领域的小规模数据调整参数,使其适配新任务或场景。本质是迁移学习:复用通用语言能力,再针对性优化。

为什么必须微调?

  • 领域专业化:通用模型缺乏医学、金融等专业知识。
  • 任务精准化:情感分析、文本分类等需针对性优化。
  • 数据合规性:用私有数据微调可避免敏感信息泄露。
  • 成本效益:比从头训练节省90%资源。

二、【主流微调方法】

1. 参数高效微调(PEFT)
目标:仅训练少量参数,降低计算成本。

LoRA(低秩适配)

  • 原理:冻结原模型权重,引入低秩矩阵学习任务适配。
  • 优点:内存占用少,训练快,适合资源有限场景。
  • 缺点:复杂任务可能弱于全参数微调。
  • 应用:快速实验、多模型部署。

Adapter(适配器)

  • 原理:在模型层间插入小型可训练模块,冻结原参数。
  • 优点:模块化设计,支持多任务复用。
  • 缺点:性能可能受模块位置影响。

Prompt Tuning & Prefix Tuning

  • Prompt Tuning:学习可嵌入的“软提示”,引导模型输出。
  • Prefix Tuning:在每层输入前添加可学习前缀,控制生成过程。
  • 优势:极低计算成本,适合少样本学习。

2. 全参数微调

  • 原理:调整模型所有参数,全面适应新数据。
  • 优点:性能上限高,适合数据充足的场景。
  • 缺点:计算成本高,易过拟合。

3. 新兴技术

  • 指令微调(Instruction Tuning):让模型理解自然语言指令(如InstructGPT)。
  • RAG(检索增强生成):结合外部知识库,减少模型“幻觉”。
  • QLoRA:量化+LoRA,单卡即可微调超大规模模型。

三、【常用微调工具】

1. Hugging Face生态

  • Transformers库:提供预训练模型、分词器和训练接口。
  • PEFT库:支持LoRA、Adapter等高效微调技术。
  • SFTTrainer:专为指令微调设计,简化流程。

2. DeepSpeed

  • 特点:微软开发,支持多GPU分布式训练,优化内存占用。
  • 适用场景:百亿参数模型微调。

3. 云平台与开源工具

  • 云服务:Google Vertex AI、Azure OpenAI提供托管微调。
  • LLaMA-Factory:开源工具,支持多种模型高效微调。

在这里为大家详细讲解这些关于数据集的问题,大概的学习路径如下:

  • 前置知识:了解常见的微调任务类型,根据特定任务选择适合的数据集;

  • 前置知识:了解常见的数据集格式,数据集的类型;

  • 学会怎么找:一些推荐的获取公开数据集的途径;

  • 学会这么标:基于标注工具半自动标注数据集;

  • 学会怎么做:将特定领域的文献转换为目标格式的数据集;

  • 学会怎么做:基于 AI 全自动生成模型蒸馏数据集。

    微调数据集概述

    指令微调数据集一般由“输入”和“输出”的文本对组成。“输入”是对模型的请求,包括分类、总结、重写等各种类型。“输出”是希望模型根据指令生成的、符合人类的期望的响应。这样构造的目的就是为了让模型能够学会这样一种范式,类似于形成一种固定记忆,也可以理解成这是你跟模型之间的一种“暗号”。

    从领域上分类,指令微调数据集可以分为两大类:通用指令微调数据集和特定领域指令微调数据集。通用指令微调数据集没有领域限制,主要目的是提高模型的指令遵循能力。

    在特定领域指令微调数据集中,指令会用专业数据专门设计。这一般是用于垂类模型的微调,目前比较常见的像是医疗领域,法律领域、金融领域。目前垂类大模型之所以集中在这几个领域,也是因为这几个领域本身信息的线上化程度就比较高,前些年的数字化积累,让他们更容易完成数据的获取。这也可以反推,**很多领域想要AI化,数据线上化是前置条件。**在应用层找场景时需要考虑到这一点。

    关于具体类别上,不同研究方法里会给出不同的分法,这里对这些分法做一个通用化的总结,可以分为15类:推理、数学、头脑风暴、封闭问答、开放问答、代码、提取、生成、重写、总结、翻译、角色扮演、社会规范和其他(备注:这里只关注单轮对话)

    • 推理。从已知前提推导出新的判断,涉及逻辑推理和做出推断的假设,包括链式思维(CoT)、类比推理、归纳推理等过程。

    • 数学。指令包含数学计算或数学推理。可以根据难度级别进行分类。

    • 头脑风暴。围绕特定主题产生新的想法,提出创新的方法。答案通常以项目符号格式呈现。提供建议、给出推荐和类似的要求都属于头脑风暴。

    • 封闭问答。根据提供的提示和问题选择正确的选项,或者直接或间接地从提供的文本信息中获得答案。

    • 开放问答。对于开放问答指令,问题没有选项,答案不能直接从问题中找到。必须依赖自己的知识库来制定回答。这些问题可以包括具有标准答案的常识查询或没有预定义解决方案的开放式查询。

    • 代码。关于代码的一切😂😂,包括但不限于代码生成、代码修正和代码理解。

    • 提取。从给定内容中提取关键信息,包括命名实体识别(NER)、关系提取(RE)、事件提取等。

    • 生成。根据问题的要求生成原始内容,如广告文案或文章。获取答案涉及从头开始创造过程。

    • 重写。根据要求处理文本,包括单词转换、风格转换、文本排序、文本简化和扩展、上下文重写、句子重写、文本校正等。

    • 总结。总结和压缩文本内容,或将内容提炼成标题。在总结时可以应用特定的约束。

    • 分类。根据指定要求对信息进行分类或评级,如主题分类、质量评分等。

    • 翻译。不同语言之间的翻译,包括各种民族语言之间的翻译,以及简体和繁体中文之间的翻译、方言翻译、古文翻译等。

    • 角色扮演。让模型扮演特定角色以完成任务。它可以承担传统角色,如专家、名人,或非常规角色,如疯子、动物、编译器等。

    • 社会规范。社会规范指令涉及道德和法律问题、个人隐私、偏见、歧视等。要求提供符合安全规范和人类价值观的答案。

    • 其他。这一类可以涉及指示模型使用搜索引擎进行实时信息检索,或提供不合逻辑的指令,如“向右转”或“重复我说的话”。

  1. 微调数据集的常见分类

为了弄清楚我们要整理什么样的数据集格式,先要搞清楚我们要做的微调属于哪种任务场景,很多人弄不清楚,给模型喂的数据究竟需要什么样的格式,实际上就是还没分清楚几种常见的微调任务类型。为了在不同的业务场景下解决不同的问题,我们可能采取的微调任务类型是不一样的,那所用的数据集格式肯定也会有所差别。所以,下面是我梳理的对常见微调任务的一个分类图:从最上层的预训练模型开始,我们先划分出是否为多模态(例如让模型具备对图片、语音、视频的理解和生成能力)微调,还是纯文本微调(仅让模型具备生成文字的能力)。

图片

在文本微调中,监督微调是目前应用最广泛也是最常用的微调技术,当然目前我们普通人想在特定行业里去微调自己的大模型,最常用的也是监督微调,所以监督微调的数据集格式是我们后续重点学习的内容。然后其他微调技术还包括无监督、自监督微调,强化学习微调等等,这些我们只做简单了解,不用过多深入。

1.1 预训练

从零开始训练一个模型,一般这个流程叫做预训练,这个过程的目的就是让模型掌握语言的通用规律,以及基本的语言理解能力。目前我们市面上主流的大模型,比如 ChatGPT、DeepDeek 等等,都属于 “自回归模型”,而 “自回归模型” 的本质就是:用过去的自己来预测未来的自己。我们都知道,大模型输出文本的时候是按照 Token 来输出的。Token 简单理解就是把句子拆成最小语义单元(如中文拆字 / 词,英文拆词或子词)。当你给定模型一个问题时,模型先会预测出第一个 Token,然后根据问题和第一个 Token 再去预测第二个 Token,知道整句话输出完成,比如下面的例子:

img

所以在预训练的过程中,我们一般用海量非结构化文本(比如书籍、网页、对话),通过「预测下一个词」来训练模型,这也就意味着预训练的数据集格式是没有明确要求的,例如下面这些数据我们可以直接用于训练:

图片

但是在特定领域的微调上,就不能用非结构化文本了,我们可以这样理解:

  • 预训练阶段:就像婴儿学说话,听到的是各种声音(非结构化),不管是什么,直接让他多听,慢慢多就能学会语言规律;
  • 指令微调阶段:就像教小孩做事「听到问题要回答」,需要明确告诉他这是什么问题,正确答案是什么。如果继续用没规律(非结构化)对话,他对你要让他学的事情就不会印象太深刻。

而预训练的过程,我们可以理解成一个无需人工监督,自己学习和锻炼能力的过程,对应的,想要让模型具备特定的能力,就要用到监督微调了。

1.2 监督微调

监督微调(Supervised Fine-Tuning,SFT),顾名思义就是需要人去监督微调的过程。怎么 “监督” 呢?就是通过标注过的数据直接教模型做事,适合有明确目标的任务。最简单的,我们直接告诉模型输入对应的输出是什么就可以了。比如:我们想训练一个中英翻译模型,把英文翻译为中文就是一个非常明确的需求场景,所以在数据集里只需要有输入、输出就可以了:

img

1.2.1 指令微调

那假如我们想让模型具备多种语言理解的能力呢,这时候只靠两个字段就不够了,因为在 Input 是同样一个词语的时候,根据我们想让模型完成的不同任务,output 可能是不一样的,这时候我们就要多引入一个指令的概念,比如这个数据集:

img

我们告诉模型明确的指令:将英文翻译为法语,再将 Input(英文)、Output(法语)告诉模型, 模型就能准确理解要做什么了,这就是指令微调。

指令微调常见的业务场景:

  • 智能教育:实现作业辅导、规划个性化学习路径、辅助语言学习。
  • 智能办公:可处理文档、邮件,进行日程管理。
  • 智能翻译:应用于专业领域翻译、特定场景翻译及多语言交互。
  • 数据分析:让模型根据分析需求指令,对数据进行准确解读和洞察。

Alpaca 数据集:由斯坦福大学创建,通过微调模型生成,包含约 5.2 万个指令跟随数据样本。涵盖多种任务,如常识问答、文本生成等,助力模型在指令理解和生成方面优化。

指令微调的数据集制作相对还是比较简单的,因为我们要执行的任务一般很明确,往往也有比较明确的答案了,比如想要微调模型在翻译方面的能力,那就用现成的翻译 API 来构造数据集;想要微调模型在数学解题方面的能力,其实也有现成的题目 + 答案可以用来构造。所以指令微调场景的数据集一般不太难做,主要进行一些格式转换的工作即可。

1.2.2 对话微调

另外一种常见的微调任务就是对话微调。

对话微调(Dialogue Tuning) 是通过多轮对话数据训练模型生成连贯、符合语境的回复,强调对话历史的上下文理解和回复的自然流畅性。其核心在于教会模型处理对话中的逻辑关系、情感表达和角色身份,对话微调的数据集通常包含对话的上下文以及对应的回复。另外一种常见的微调任务就是对话微调。对话微调(Dialogue Tuning) 是通过多轮对话数据训练模型生成连贯、符合语境的回复,强调对话历史的上下文理解和回复的自然流畅性。其核心在于教会模型处理对话中的逻辑关系、情感表达和角色身份,对话微调的数据集通常包含对话的上下文以及对应的回复。

img

对话微调数据集的核心特点:包含多轮对话上下文、标注角色身份,注重回复连贯性与逻辑性。通过这样的数据,模型可以学习到在不同对话场景下如何生成合适的回复,从而提高对话的连贯性和相关性。

对话微调常见的业务场景:

  • 智能客服系统:提升客服机器人在处理用户咨询时的对话能力,能够更准确地理解用户意图并提供解决方案。
  • 聊天机器人:让聊天机器人更自然地与用户进行多轮对话,提高用户体验。
  • 语音助手:优化语音助手在语音交互中的对话表现,使其更符合用户的期望。

一个用于训练对话模型的多语言问答数据集,其内容结构和风格符合 ShareGPT 对话格式,数据集中的每个样本为一个对话轮次,包含人类提问和模型回答,数据覆盖多语言(英语、西班牙语、中文、俄语等)和多样化领域。

对话微调的数据集制作也不困难,一般可从在线聊天平台、客服对话记录、或者一些公开的访谈记录来获取数据,也能通过众包方式让标注人员模拟对话生成,只需整理为特定格式,如标注对话角色、意图等。

1.2.3 领域适配

接下来,可能是最近我见过最多的大家对于微调的一类诉求和场景,基于微调让模型对特定领域进行适配。预训练的模型虽然基于海量数据具备了通用的文字理解和生成能力,但是由于预训练的数据集在特定领域可能并不会覆盖的那么全面,这些模型在某些特定领域或任务上的表现可能并不理想,这时候就需要进行领域适配微调。领域适配(Domain Adaptation)是指将模型在特定领域的数据上进行微调,使其更好地适应特定领域的任务和需求。怎么进行领域适配呢?我们需要在特定领域的数据集上对模型进行训练,这些数据集通常包含该领域的专业术语、特定格式和相关任务的标注。例如,在医疗领域,数据集可能包含病历文本、医学术语以及对应的诊断结果等信息。

img

领域适配数据集的核心特点:领域术语标注(如医学本体库、法律术语库)、复杂规则建模(如药物相互作用、合同条款逻辑)、场景化数据增强(如模拟问诊对话、合同审查流程);领域适配典型的业务场景:

  • 医疗领域适配:用于病历分析、疾病诊断辅助、医疗文献检索等。
  • 法律领域适配:辅助法律文件分析、案例检索、合同审查等。
  • 金融领域适配:用于风险评估、市场分析报告生成、金融产品推荐等。
1.2.4 文本分类

还有一种很常见的监督微调任务,就是文本分类(Text Classification),它是自然语言处理中的一个经典任务,目的就是通过标注数据训练模型对文本进行类别预测或标签分配。这类任务需要模型理解文本语义与类别特征的关系,适用于需要结构化输出的场景。怎么进行文本分类呢?我们需要使用标注了类别的文本数据集对模型进行训练,让模型学习文本特征与类别的映射关系。文本分类数据集的关键在于构建符合业务需求的分类标签,例如从评论中区分出好评和差评,从新闻中区分出客集新闻和金融新闻:

img

文本分类微调的典型业务场景:

  • 情感分析:商品评论情感极性识别(正面/负面/中性)
  • 内容审核:检测违规内容(涉政/暴力/广告)
  • 新闻分类:自动归类至财经/科技/体育等栏目
  • 意图识别:用户query分类(咨询/投诉/比价)

文本分类任务的数据集,一般可以借助一些专业的第三方标注平台来做:这类平台往往配备了丰富的标注工具,能满足不同文本分类需求。例如在新闻文本分类中,标注员可利用平台的快速标注功能,将新闻精准划分为政治、经济、娱乐等类别。在后面的实战章节,我会教大家如何通过工具高效的标注文本分类数据集。

1.2.5 模型推理微调

对于推理模型的微调其实是监督微调的一种特殊形式,通过在数据集中显式标注思维链(Chain of Thought, COT),训练模型不仅给出最终答案,还能生成逻辑推导过程。其核心在于让模型学会「分步思考」,适用于需要复杂逻辑推理的场景(如数学证明、代码调试)。在推理模型(比如 DeepSeek-R1)的回答中,`` 中包含的这部分其实就是模型的推理过程,它其实是根后面的答案一起作为一个回答输出的,只不过在大部分的 C 端应用中对这部分提取出来做了特殊展示。

图片

随着最近推理模型 DeepSeek-R1 的爆火,开始让推理模型走进大众的视野,大家在选择模型进行微调时,也会去选择具备推理能力的模型,如 DeepSeek-R1 的蒸馏版本。在用于推理模型微调的数据集中,通常需要额外包含模型思考过程的部分:

img

不过有一点需要大家注意,其实并不是所有任务都适合用推理模型,因为推理模型的幻觉比较大,有些情况选择推理模型反而会起到相反的效果,在处理简单明确的任务时,推理模型可能会把问题复杂化,导致思考过度、响应较慢,甚至增加幻觉的风险。比如如果你让推理模型去完成检索、解释类的任务时,当它找不到可以参考的信息就会按照自己的思考过程进行输出,结果并不一定准确,下面则是一些适合用于推理模型微调的场景:

  • 代码生成与调试:推理模型能够理解复杂的编程问题,生成高效的代码解决方案,并辅助开发人员进行代码调试。
  • 数学问题求解:在数学建模、复杂计算和逻辑推理任务中,推理模型表现出色,能够提供详细的解题步骤和准确的答案。
  • 复杂数据分析:推理模型擅长处理需要多步骤推理和策略规划的复杂数据分析任务,帮助科学家和研究人员进行更深入的数据挖掘。
  • 法律与金融分析:在处理法律合同、金融协议等复杂文档时,推理模型能够提取关键条款,理解模糊信息,辅助决策。

1.2.6 知识蒸馏

提到蒸馏,这里我们也稍微讲一下,严格来说,蒸馏技术并不属于微调的范畴,但是我们实际上是可以通过微调来达到蒸馏的效果,所以这里我把它当作是一种特殊的微调(并不严谨)。

知识蒸馏(Knowledge Distillation)是将复杂模型(教师模型)的知识迁移到轻量级模型(学生模型)的技术,通过优化学生模型使其输出接近教师模型的“软标签”,从而在保持性能的同时降低推理成本。

简单来说,如果大模型已经完全可以满足你在特定任务上的诉求,但是部署成本又太高了,你完全可以选择一个小模型,然后从大模型里把你任务里需要用到的领域知识提取出来,构造成数据集,再去微调小模型,从而让这个小模型也能在你的特定领域完成任务,这就可以理解为一个模型蒸馏的过程。模型蒸馏的数据集构造应该是最简单的,在你完全信任大模型输出的条件下,你可以直接将大模型产出的问答对作为数据集,最后在进行人工的质量评估和验证即可。

中文基于满血 DeepSeek-R1 蒸馏数据集,数据集中不仅包含 math 数据,还包括大量的通用类型数据,总数量为 110K。

1.3 其他微调技术(了解)

以上几种监督微调的方式应该是大家最经常用到几个场景了,但是为了方便大家更好的理解微调技术,我们也要了解一下其他的一些微调手段。

1.3.1 强化学习微调

强化学习微调(Reinforcement Learning from Human Feedback,RLHF)是在监督微调的基础上,通过人类来主动反馈优化模型生成质量的方法。其核心在于引入奖励模型(Reward Model)评估生成结果的合理性,并通过强化学习策略(如 PPO 算法)调整模型参数,使生成内容更符合人类偏好。

img

强化学习微调的典型业务场景:

  • 对话系统优化:提升回复的相关性,对齐人类价值观(安全、无害、有用性)。
  • 内容生成:控制输出风格(如幽默、正式)或避免敏感信息。
  • 代码生成:优化代码的可读性和正确性。

1.3.2 多模态微调

看到之前评论里也有很多同学问能不能在训练数据集里引入图片,这里也简单提一下,如果我们想要让模型具备更好的图片、音频、视频等非纯文本的理解能力,那就属于多模态微调的范畴了。

多模态微调(Multimodal Fine-Tuning)指通过文本、图像、语音等多模态数据训练模型,使其具备跨模态理解与生成能力。它和文本类模型的微调可以说是并列的两个范畴,其中也包括监督/非监督微调、强化学习微调等范畴。

需要注意的是,想要做一个多模态的微调任务,前提是选择的预训练模型一定也要具备基础的多模态理解能力,多模态微调任务涉及多种模态的数据(如文本、图像、音频等),模型需要能够理解和处理这些不同模态的信息,并有效地进行融合和交互。如果预训练模型本身不具备多模态能力,那么在微调阶段将面临很大的挑战,难度不亚于从零训练一个多模态模型,所以你想用多模态数据集去微调 DeepSeek 就先别考虑了。

img

注意这里的图片、视频、音频等多模态数据可以是 CND 地址、base64 编码,或者直接放在 HuggingFace 上,这里写相对路径,总之在训练时能够读取的到就可以。

多模态微调的典型业务场景:

  • 图文问答:输入图片和问题,生成答案。
  • 视频内容理解:分析视频帧和字幕,生成摘要。
  • 跨模态检索:根据文本描述搜索相关图像/视频

B.微调数据集的常用格式

看了这么多的微调任务场景,大家可能会有点乱了,怎么这么多格式,微调的数据集到底有格式要求吗?到实际的微调代码里,能够自动适配这么多的格式吗?

首先,对于模型微调的数据集,是没有明确的格式要求的,我们一般在代码中抹除各种微调数据集格式的差异,我们还拿之前微调实战教程中的代码来举例,回顾一下之前我们是怎么处理数据集的。

我们先来看第一段代码:

图片

这段代码其实就是在定义一个用于格式化微调数据集的模版,其中的三个 “{}” 其实就是对应的我们要传入的三个变量,分别对应原始问题、思考过程、最终答案三个部分。

然后我们再来看下面这段代码,也很好理解,就是提取出我们原始数据集里面的三个变量:

  • Question:对应问题
  • Complex_COT:对应思考过程
  • Response:对应最终回答结果

图片

然后循环原始数据集,将这三个变量传入上面的模版,最终导入到一个 text 变量里。

回顾一下我们之前的一个数据集格式:

图片

调用上面的模版,每条数据集其实就转换成了下面这种格式:

图片

最终所有数据集合并完,其实最终就是一个字符串数组:

图片

所以其实最后喂给模型的还是一段格式化好的字符串,并非结构化的数据。当然也不是,模型微调已经不是什么新技术了,只是最近由于 DeepSeek 的横空出世,导致逐步开始被各领域更广泛的应用,在这之前,哪些数据集格式效果好,哪些容易整理,已经总结了很多经验,比如目前广泛被大家使用的有两种数据集格式,AlpacaShareGPT

我的DeepSeek部署资料已打包好(自取↓)
https://pan.quark.cn/s/7e0fa45596e4

但如果你想知道这个工具为什么能“听懂人话”、写出代码 甚至预测市场趋势——答案就藏在大模型技术里!

❗️为什么你必须了解大模型?

1️⃣ 薪资爆炸:应届大模型工程师年薪40万起步,懂“Prompt调教”的带货主播收入翻3倍

2️⃣ 行业重构:金融、医疗、教育正在被AI重塑,不用大模型的公司3年内必淘汰

3️⃣ 零门槛上车:90%的进阶技巧不需写代码!会说话就能指挥AI

(附深度求索BOSS招聘信息)
在这里插入图片描述

⚠️警惕:当同事用DeepSeek 3小时干完你3天的工作时,淘汰倒计时就开始了。

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?老师啊,我自学没有方向怎么办?老师,这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!当然这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!
在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐