一、DeepSeek相关资料参考

DeepSeek官网:https://www.deepseek.com/

DeepSeek-R1论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

DeepSeek-R1新闻发布:https://api-docs.deepseek.com/zh-cn/news/news250120

DeepSeek HF链接:https://huggingface.co/deepseek-ai

DeepSeek资料链接:https://pan.quark.cn/s/1ae60157e7fa

DeepSeek从入门到精通:https://pan.quark.cn/s/13a2166ffa2e

二、DeepSeek R1介绍

2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布高性能AI推理模型DeepSeek-R1,对标OpenAI的o1正式版。目前发布了两个版本:DeepSeek R1-Zero 和 DeepSeek R1。其中,DeepSeek-R1-Zero 是一个完全基于强化学习(RL)训练而无需监督微调(SFT)的模型。通过强化学习(RL),DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混合问题。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它基于 DeepSeek-V3 Base 作为基础模型,并结合强化学习技术,在无需监督数据的情况下显著提升推理能力,突破了传统模型的局限性。通过独创的GRPO 组相对策略优化方法,模型在训练过程中不断自我优化,从而具备强大的逻辑推理和深度上下文理解能力。上述两个版本都是671B 参数。

同时,也针对Qwen和LLama系列模型使用DeepSeek-R1生成的80万条样本(包括详细答案以及完整的推理链条)进行SFT蒸馏(Distill),推出了多款具备强大推理能力的小型模型。这些蒸馏版本在保留 R1 逻辑推理能力的同时,大幅降低了推理计算成本,使其更加适合个人用户和企业的私有化部署需求。

  • DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。

  • DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置 model='deepseek-reasoner' 即可调用。

  • DeepSeek 官网与 App 即日起同步更新上线。

DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1

  • 完整版(671B):需要至少 350GB 显存/内存,适合专业服务器部署

  • 蒸馏版:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。

蒸馏版与完整版的区别

特性
蒸馏版
完整版
参数量
参数量较少(如 1.5B、7B),性能接近完整版但略有下降。
参数量较大(如 32B、70B),性能最强。
硬件需求
显存和内存需求较低,适合低配硬件。
显存和内存需求较高,需高端硬件支持。
适用场景
适合轻量级任务和资源有限的设备。
适合高精度任务和专业场景。

蒸馏版模型的特点

模型版本
参数量
特点
deepseek-r1:1.5b
1.5B
轻量级模型,适合低配硬件,性能有限但运行速度快
deepseek-r1:7b
7B
平衡型模型,适合大多数任务,性能较好且硬件需求适中。
deepseek-r1:8b
8B
略高于 7B 模型,性能稍强,适合需要更高精度的场景。
deepseek-r1:14b
14B
高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。
deepseek-r1:32b
32B
专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。
deepseek-r1:70b
70B
顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。

可根据下表配置选择使用自己的模型

模型名称
参数量
大小
VRAM (Approx.)
推荐 Mac 配置
推荐 Windows/Linux 配置
deepseek-r1:1.5b
1.5B
1.1 GB
~2 GB
M2/M3 MacBook Air (8GB RAM+)
NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b
7B
4.7 GB
~5 GB
M2/M3/M4 MacBook Pro (16GB RAM+)
NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b
8B
4.9 GB
~6 GB
M2/M3/M4 MacBook Pro (16GB RAM+)
NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b
14B
9.0 GB
~10 GB
M2/M3/M4 Pro MacBook Pro (32GB RAM+)
NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b
32B
20 GB
~22 GB
M2 Max/Ultra Mac Studio
NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b
70B
43 GB
~45 GB
M2 Ultra Mac Studio
NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
deepseek-r1:1.5b-qwen-distill-q4_K_M
1.5B
1.1 GB
~2 GB
M2/M3 MacBook Air (8GB RAM+)
NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b-qwen-distill-q4_K_M
7B
4.7 GB
~5 GB
M2/M3/M4 MacBook Pro (16GB RAM+)
NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b-llama-distill-q4_K_M
8B
4.9 GB
~6 GB
M2/M3/M4 MacBook Pro (16GB RAM+)
NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b-qwen-distill-q4_K_M
14B
9.0 GB
~10 GB
M2/M3/M4 Pro MacBook Pro (32GB RAM+)
NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b-qwen-distill-q4_K_M
32B
20 GB
~22 GB
M2 Max/Ultra Mac Studio
NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b-llama-distill-q4_K_M
70B
43 GB
~45 GB
M2 Ultra Mac Studio
NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

DeepSeek-R1的能力

 通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

三、DeepSeek R1使用

3.1 DeepSeek官方App与网页端

  登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

3.2 本地部署

前提:硬件要求

所以对于大多数个人用户,建议部署4bit量化模型:

- 7B/8B模型:8GB显存。

- 14B模型:16GB显存。

- 32B模型:22GB显存。

- 70B模型:48GB显存。

3.2.1 ollama

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

3.2.2 HuggingFace

HuggingFace 链接: https://huggingface.co/deepseek-ai

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐