
一文教你如何本地部署玩转 DeepSeek-V3,免费体验 100 度算力包跑通!
DeepSeek-V3就像是AI界的超级英雄,带着6710亿个参数的“智慧”降临人间。自从它开源以来,整个AI圈都为之沸腾了!它在众多测试中表现得异常出色,而且训练成本之低,简直让人拍手称快。
1、背景介绍
为什么DeepSeek-V3如此特别?
DeepSeek-V3就像是AI界的超级英雄,带着6710亿个参数的“智慧”降临人间。自从它开源以来,整个AI圈都为之沸腾了!它在众多测试中表现得异常出色,而且训练成本之低,简直让人拍手称快。
它将如何改变世界?
随着DeepSeek-V3的出现,我们正步入分布式推理的新纪元。这意味着你可以把这颗“超级大脑”部署到任何地方,无论是云端还是本地服务器。不过,这样的巨无霸模型也带来了私有化部署的挑战——毕竟,谁不想拥有自己的AI超级英雄呢?
如何轻松拥有你的专属DeepSeek-V3?
别担心,我们已经为你准备好了最佳实践指南!采用vLLM和KubeRay作为分布式推理方案,你只需三步,免费体验100度算力包就能完成DeepSeek-V3的私有化部署。
或复制体验地址到浏览器打开:https://docs.alayanew.com/docs/documents/newActivities/deepseekv3
主要内容:
Step1 - 准备工作
1.账号开通
2.资源需求
3.开通弹性容器集群
4.配置文件准备
5.模型准备
Setp2 -KubeRay集群部署
1.安装KubeRay-Opertor
2.启动集群
3.安装访问配置
Setp3 -DeepSeek-V3部署
1.部署模型
2.访问模型
2、准备工作
本次部署会用到Kubernetes,请确保本地有可用的Kubernestes客户端工具kubectl,安装请参考文档:https://docs.alayanew.com/docs/documents/useGuide/Vcluster/start/
部署前需要先开通弹性容器集群,请跟随下面的步骤,完成前期准备工作。
2.1账号开通
点击:https://docs.alayanew.com/
点击“立即体验”进行账户开通注册
2.2资源需求
DeepSeek-V3模型的参数规模为6710亿,模型的文件大小约为642G。因此,在部署前,请确保开通的弹性容器集群的资源满足下表中的配置要求。
2.3开通弹性容器集群
● 登录AlayaNeW系统
登录AlayaNeW系统之后,点击【产品】选择弹性容器集群,点击立即开通
● 填写基本信息
1.进入到弹性容器集群的开通界面
2.用户需要填写【集群名称】【集群描述】 选择对应的智算中心,然后用户可以选择对应的GPU、存储(如果您没有开通过存储,可以在本界面统一开通),是否进行对外服务(开通对外服务之后用户在弹性容器集群中部署的服务可以对外提供服务)。用户填写完毕之后,跳转到开通界面,等待开通
● 查看开通信息
开通之后用户进入到弹性容器集群列表,用户在列表界面可以对容器集群进行相关的操作,如对集群 【停止】【释放】【启动】等
【停止】:暂时停止弹性容器集群的运行,运行停止之后,资源不会释放
【启动】:启动停止了弹性容器集群
【详情】:可以查看弹性容器集群的相关信息
【释放】:释放弹性容器集群,释放之后资源会释放,弹性容器集群内配置都将消失掉
【kubeconfig下载】:下载k8s的认证配置文件
用户在使用弹性容器集群过程中,对GPU、存储的需要改变时,可以在详情界面进行修改
提示:
需要先设置环境变量,export KUBECONFIG=kubeconfig文件路径,才能够执行kubectl命令
2.4配置文件准备
为了方便操作,为大家准备了配套的配置文件及示例代码,请复制链接下载:
https://docs.alayanew.com/assets/files/DeepSeek-V3-2b60b89a0275241112424fd14a0bdc09.zip
2.5 模型准备
该模型文件较大,我们按照如下步骤,从模型市场中快速下载DeepSeek-V3模型文件。
● 创建Secret
首先,创建Secret用于拉取镜像时的验证。执行下面的命令,创建Secret资源。
# 创建namespace``1. kubectl create namespace deepseek`` ``# 创建Secret``2. kubectl apply -f deepseek-secret.yaml
● 下载模型
执行kubectl apply -f prepare.yaml命令,创建准备环境Pod,用于下载模型。
Pod启动成功后,进入prepare的容器中,执行以下操作下载DeepSeek-V3模型。
`# 进入prepare容器` `1. kubectl exec -it $( kubectl get pod -n deepseek | awk ' NR>1 {print $1}' | grep prepare ) bash -n deepseek`` ` `# 安装huggingface工具` `2. pip install huggingface`` ` `# 下载DeepSeek-V3模型` `3. huggingface-cli download --resume-download deepseek-ai/DeepSeek-V3 --local-dir /model/deepseek-ai/DeepSeek-V3`
提示:
模型文件大约642G,下载时间较长,请耐心等待
3、KubeRay集群部署
本方案使用KubeRay做为分布式计算框架来实现多机多卡的分布式推理环境。
3.1安装KubeRay-Opertor
进入kuberay-operator目录,执行下面的命令,启动operator。
helm install kuberay-operator -n deepseek --version 1.2.2 .
部署成功后,可以执行下面的命令操作已部署的资源。
# 查看相关资源``1.helm list -n deepseek`` ``# 删除相关资源``2.helm uninstall kuberay-operator -n deepseek``
3.2启动集群
完成KubeRay-Opertor安装后,执行kubectl apply -f ray-cluster.yaml命令,启动KubeRay集群。
集群启动成功后,执行kubectl get pod -n deepseek查看服务运行情况。
3.3外部访问配置
在弹性容器集群中,无法直接使用NodePort方式暴露服务。对于需要外部访问的服务,我们可以使用ServiceExporter。ServiceExporter是弹性容器集群中用于将服务暴露到外部的组件,将其与需要对外提供服务的Service绑定,为用户提供外部访问的地址。
apiVersion: osm.datacanvas.com/v1alpha1``kind: ServiceExporter``metadata:` `name: ray-svc-chat-exporter` `namespace:deepseek``spec:` `serviceName: raycluster-kuberay-head-svc` `servicePort: 8000
执行kubectl apply -f ray-svcExporter-chat.yaml命令,创建ServiceExporter资源。创建成功后,可以查看ServiceExporter的信息获取服务访问的地址。通过ServiceExporter方式暴露的服务端口均为22443
kubectl describe serviceExporter ray-svc-chat-exporter -n deepseek
输出结果
信息省略···``Spec:` `Service Name: raycluster-kuberay-head-svc` `Service Port: 8000``Status:` `Conditions:` `Last Transition Time: 2025-01-05T13:04:48Z` `Message: IngressRoute successfully updated, url: https://raycluster-kuberay-head-svc-x-deepseek-x-vcw2y2htee7r.sproxy.hd-01.alayanew.com``···
那么,如何系统的去学习大模型LLM?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
所有资料 ⚡️ ,朋友们如果有需要全套 《AI大模型入门+进阶学习资源包**》,扫码获取~
篇幅有限,部分资料如下:
👉LLM大模型学习指南+路线汇总👈
💥大模型入门要点,扫盲必看!
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。
路线图很大就不一一展示了 (文末领取)
👉大模型入门实战训练👈
💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉国内企业大模型落地应用案例👈
💥两本《中国大模型落地应用案例集》 收录了近两年151个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
👉GitHub海量高星开源项目👈
💥收集整理了海量的开源项目,地址、代码、文档等等全都下载共享给大家一起学习!
👉LLM大模型学习视频👈
💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
👉640份大模型行业报告(持续更新)👈
💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
👉获取方式:
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓
更多推荐
所有评论(0)