
【AI 大模型】DeepSeek 大模型简介 ( DeepSeek-R1 和 DeepSeek-V3 大模型 | Python 调用 DeepSeek API | 本地部署 DeepSeek )
可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元
文章目录
-
一、DeepSeek 大模型
-
1、DeepSeek-R1 和 DeepSeek-V3 大模型
-
DeepSeek-V3 大模型
-
DeepSeek-R1 大模型
-
大模型调用
-
2、DeepSeek 官网访问 DeepSeek-R1 和 DeepSeek-V3 大模型
-
3、DeepSeek 大模型参数
-
4、DeepSeek 蒸馏模型本地部署硬件需求
-
二、DeepSeek 开发者平台
-
1、开放平台地址
-
2、申请 API Key
-
3、Python 调用 DeepSeek API
-
三、本地部署 DeepSeek 大模型
-
1、Ollama 安装 Llama3 大模型
-
2、Ollama 安装 DeepSeek 大模型
-
3、Ollama 查询搜索大模型
一、DeepSeek 大模型
1、DeepSeek-R1 和 DeepSeek-V3 大模型
DeepSeek 推出了 两款大模型 , 分别是 DeepSeek-R1 和 DeepSeek-V3 , 二者在 模型定位、训练方法、性能表现和应用场景等方面存在显著差异 ;
DeepSeek-V3 大模型
DeepSeek-V3 大模型 是 通用的自然语言处理模型 , 采用混合专家 ( MoE ) 架构 , 主要面向自然语言处理 ( NLP ) 任务 , 旨在提供高效、可扩展的解决方案 ;
DeepSeek-V3 大模型 应用场景 : 需要高性价比通用 AI 能力的场景 , 如 智能客服、内容创作(文案、小说)、知识问答等 ;
DeepSeek-R1 大模型
DeepSeek-R1 大模型 专注于 高级推理任务 , 专为复杂推理任务设计 , 强化在数学、代码生成 和 逻辑推理领域 的性能 ;
DeepSeek-R1 大模型 使用场景 : 针对科研、算法交易、代码生成等复杂任务设计 ;
大模型调用
在 百度千帆大模型 中的 模型广场 https://console.bce.baidu.com/qianfan/modelcenter/model/buildIn/list , 提供了 DeepSeek-R1 和 DeepSeek-V3 两个模型的 API 调用服务 ;
2、DeepSeek 官网访问 DeepSeek-R1 和 DeepSeek-V3 大模型
在 DeepSeek 官网 https://www.deepseek.com 默认使用的大模型时 DeepSeek-V3 大模型 ;
在对话界面 , 可以通过 点击输入框的 " 深度思考(R1) " 按钮 启动 DeepSeek-R1 模型 , 点击" 联网搜索 " 可以搜索最近的消息 补充到提示词中 ;
3、DeepSeek 大模型参数
DeepSeek-R1 大模型 完全体 参数规模是 671b , 同时为了方便本地部署 , 还提供了 1.5b、7b、8b、14b、32b、70b 参数规模较小的版本 ;
模型规模中的 671b 表示模型的参数量为 6710 亿 ( 671 Billion ) ;
表示 10 亿 , 671B 即 671 × 10^9 个参数。
模型参数量 越大 , 对显存和计算能力的需求越高 ;
大模型任务类型 :
- 大模型推理 : 通常需要较少的显存和计算资源 ; 使用训练后的模型进行对话 就是 推理 ;
- 大模型训练 : 需要更多的显存和计算资源 , 尤其是大规模分布式训练 ; 使用万张 A100 显卡进行 大模型训练 ;
优化性能目标 :
- 低延迟推理 需要高性能 GPU ;
- 训练任务可能需要多卡或多节点分布式计算 ;
4、DeepSeek 蒸馏模型本地部署硬件需求
模型规模 | 推理硬件需求 | 推理显存需求 | 训练硬件需求 | 训练显存需求 | 模型大小(FP16) |
1.5B | 单卡 GPU(如 RTX 3090 或 A10) | 6-8 GB | 单卡 GPU(如 A100 40GB) | 10-16 GB | 3 GB |
7B | 单卡 GPU(如 A100 40GB 或 RTX 4090) | 16-24 GB | 多卡 GPU(如 4x A100 40GB) | 32-48 GB | 14 GB |
8B | 单卡 GPU(如 A100 40GB 或 RTX 4090) | 20-28 GB | 多卡 GPU(如 4x A100 40GB) | 40-64 GB | 16 GB |
14B | 单卡 GPU(如 A100 80GB) | 32-48 GB | 多卡 GPU(如 8x A100 80GB) | 64-128 GB | 28 GB |
32B | 多卡 GPU(如 2x A100 80GB) | 64-96 GB | 多节点分布式训练(如 16x A100 80GB) | 256-512 GB | 64 GB |
70B | 多卡 GPU(如 4x A100 80GB) | 128-192 GB | 多节点分布式训练(如 32x A100 80GB) | 512-1024 GB | 140 GB |
671B | 多卡 GPU(如 16x A100 80GB) | 1-1.5 TB | 大规模分布式训练(如 128x A100 80GB) | 5-10 TB | 1.342 TB |
二、DeepSeek 开发者平台
1、开放平台地址
DeepSeek 开发者平台 : https://platform.deepseek.com/
API 价格是 100 万输入 tokens 2 元 , 100 万 输出 tokens 8 元 ;
- 通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token ;
- 1 个英文字符 ≈ 0.3 个 token
- 1 个中文字符 ≈ 0.6 个 token
2、申请 API Key
进入 API keys 页面 , 点击 " 创建 API Key " 按钮 , 创建一个 API Key ;
在弹出的 对话框 中 输入 API Key 名称 , 然后点击 " 创建 " 按钮 ;
创建成功后 , 此处可以复制该 API-Key , 注意 只有这一次机会 , 如果没有保存下来 , 只能删除该 API Key ;
这是创建的 API Key , 到了该界面后 , 如果 API Key 没有保存下来 , 再也无法复制到该 API Key , 只能删除重新创建 ;
3、Python 调用 DeepSeek API
参考 https://api-docs.deepseek.com/zh-cn/ 文档进行调用 ;
DeepSeek API 兼容 OpenAI API 调用方式 , 完全可以使用 OpenAI 的SDK 调用方式进行使用 ;
将 OpenAI 的访问地址 改为 https://api.deepseek.com , api_key 改为申请的 DeepSeek 的 API Key , 即可完成调用 ;
调用参数 | 参数值 |
base_url | |
api_key | 申请的 DeepSeek API Key |
将下面的代码拷贝到 PyCharm 中 , 使用申请的 API Key 替换 代码中的 <DeepSeek API Key>
;
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
执行结果如下 :
D:\001_Develop\022_Python\Python37_64\python.exe D:/002_Project/011_Python/OpenAI/deepseek_demo.py
Hello! How can I assist you today? 😊
Process finished with exit code 0
三、本地部署 DeepSeek 大模型
1、Ollama 安装 Llama3 大模型
参考 【AI 大模型】Meta Llama 3 大模型 ( Llama 3 大模型简介 | Ollama 软件下载安装 | Llama3 模型下载 | Llama 3 大模型 在线 / 离线 使用 ) 博客 , 安装 Ollama 软件 ;
在这篇博客中 安装完 Ollama 软件后 , 执行
ollama run llama3
命令 , 运行 Llama3 大模型 ;
2、Ollama 安装 DeepSeek 大模型
安装完 Ollama 后 , 执行
ollama run deepseek-r1:1.5b
即可安装运行 DeepSeek-R1 大模型的 1.5b 蒸馏模型 , 只有 1.5 billion 个 ( 15 亿 ) 参数 , 完全版有 671b 个 ( 671 billion / 6710 亿 ) 参数 ;
普通家用电脑 只能安装一个 1.5b 的蒸馏模型 ;
其它更大参数规模版本安装 :
- 安装 7b 蒸馏模型 :
ollama run deepseek-r1:7b
- 安装 8b 蒸馏模型 :
ollama run deepseek-r1:8b
- 安装 14b 蒸馏模型 :
ollama run deepseek-r1:14b
- 安装 32b 蒸馏模型 :
ollama run deepseek-r1:32b
- 安装 70b 蒸馏模型 :
ollama run deepseek-r1:70b
- 安装 671b 蒸馏模型 : 这个代价有点大 , 要 16 张 A100 显卡 , 每张 20 万 , 除非是保密部门或科研单位 , 否则没有必要安装 ;
ollama run deepseek-r1:671b
3、Ollama 查询搜索大模型
本地部署 DeepSeek , 通过 Ollama 进行本地部署 ;
在 Ollama https://ollama.com/search 大模型下载页面 , 第一个就是 DeepSeek ;
进入 https://ollama.com/library/deepseek-r1 模型页面 , Ollama 提供了 DeepSeek 的 7 个模型 ,
- 671b 是 完全体的模型 , 这个需要 16 张 A100 显卡 才能跑起来 , 进行推理工作 , 显卡要几百万 ;
- 1.5b、7b、8b、14b、32b、70b 都是 完全体 671b 的蒸馏简化版本 , 功能要差很多 ;
- 1.5b 的版本 只需要 3090 显卡就可以跑起来 , 需要 6 ~ 8 GB 的显存 ;
- 7b 版本需要 4090 显卡跑起来 , 需要 16 ~ 24GB 的显存 ;
- 8b 及以上的版本 , 就需要 A100 显卡 , 需要 40G 以上的显存 , 普通人基本用不上这东西 , 十几万一张 ;
DeepSeek无疑是2025开年AI圈的一匹黑马,在一众AI大模型中,DeepSeek以低价高性能的优势脱颖而出。DeepSeek的上线实现了AI界的又一大突破,各大科技巨头都火速出手,争先抢占DeepSeek大模型的流量风口。
DeepSeek的爆火,远不止于此。它是一场属于每个人的科技革命,一次打破界限的机会,一次让普通人也能逆袭契机。
DeepSeek的优点
掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。现在越来越多的人才都想往大模型方向转行,对于想要转行创业,提升自我的人来说是一个不可多得的机会。
那么应该如何学习大模型
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?
”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人」
,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
掌握大模型技术你还能拥有更多可能性:
• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;
• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;
• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;
• 更优质的项目可以为未来创新创业提供基石。
可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把都打包整理好,希望能够真正帮助到大家。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【
保证100%免费
】
👉AI大模型学习路线汇总👈
大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉大模型实战案例👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉大模型视频和PDF合集👈
观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)