
《阿里云爸爸发福利!DeepSeek-R1满血版深度体验,4种部署攻略+隐藏羊毛大公开》
这是2025年解决方案测评系列的第二篇,在过去一年来的解决方案测评从一开始的摸索不完善到如今的全新蜕变,已成为开发社区除了产品测评外的一种全新的测评方式,正在吸引一大批开发者们参与。希望大家可以踊跃参加,把你最真实的体验感受和建议分享出来。以下是活动首页,可点击下方链接前往:
每一期的解决方案评测我都有参与,以下是我往期的评测文章,欢迎各位前来打卡点评。
《10 分钟构建 AI 客服并应用到网站、钉钉或微信中》解决方案体验评测
方案速览
按照传统惯例,这里还是先呈上方案的整个页面截图,供不愿意点击链接查看的伙伴们查阅。从方案整体来看,还是一如既往的样式和排版,分成了五个大模块进行阐述。接下来将逐个分析。
在方案的一开始便开门见山地对方案进行了简介,首先阐述了必要性,也即是方案的初衷志在解决deepseek网页版响应延迟增加,甚至无法响应的情况,并提供了两种方案供用户选择,一种是直接通过百炼调用满血版的API,另一种便是云上部署专属的蒸馏版模型;这两种方案各有优势,通过百炼调用的方案是适合绝大多数用户的一种选择,用户无需自行搭建模型服务基础设施,搭配 Chatbox 可视化界面客户端即可轻松配置和使用 DeepSeek 模型,且是普通用户遥不可及的满血版。而通过云上部署方式更适合哪些需要基于私有数据微调模型、调整模型参数适配垂直领域的个人或企业,此方式不仅部署门槛低、无需复杂的环境配置和硬件搭建,还支持各类模型尺寸,并且可以做到自动弹性扩展。
紧接着便是基于百炼调用满血版 API的一个介绍和免费体验,下方是云上部署蒸馏版模型的三种典型方式以及对应的云起实验链接。这四种方式将在下个章节中详细体验。这里我们可以先了解一下各种部署方式所能支持的模型。
- 基于百炼调用满血版 API所支持的模型如下图
- 基于人工智能平台 PAI 部署所支持的模型详情及配置要求
- 基于函数计算部署所支持的模型详情
- 基于GPU 云服务器部署所支持的模型详情
在应用场景中,简要描述了经典的三个场景,分别是数学计算与建模、代码生成与优化、自然语言推理。
针对整体方案提供了对应产品的免费试用,但这里显然是内容缺失的,比如没有百炼平台和云原生应用开发平台CAP的试用入口以及GPU云服务器的推荐购买入口。
方案的最后是更多推荐,相比上期的《AI 剧本生成与动画创作》,这里没有任何变化,建议针对不同方案配置不同的推荐。
实践体验
在正式部署体验开始之前,这里还是需要提前把有关产品或服务进行开通,并准备有关物料,方便后面的部署调用。具体步骤如下:
服务开通
开通阿里云百炼
由于本次解决方案实现涉及的服务有函数计算FC、阿里云百炼产品,如果你是新用户,是基本没有体验费用的,因为可以领取试用额度,尤其是函数计算FC;而对于百炼产品,目前尚处公测阶段,开通服务即可免费获得试用额度,如下将展开阐述如何开通云百炼服务。
首先访问大模型服务平台百炼控制台。首次进入需要同意服务协议,点击同意。如下:
在首页/模型广场/应用广场,均可点击开通模型调用服务。新用户首次访问将有100次提问额度。额度用完后需开通服务后方可继续使用。如下:
点击开通,如下:
使用阿里云百炼大模型服务,需要开通【百炼大模型推理】【百炼大模型部署】【百炼大模型训练】商品,并创建模型调用API-KEY。勾选协议,点击确认开通。如下:
开通服务后将会收到三条开通百炼大模型推理、百炼大模型部署、百炼大模型训练商品成功的短信通知。
至此,我们就完成了阿里云百炼大模型服务产品的开通,也就是开启了百炼产品的免费试用。接下来还需要开通函数计算FC,接下来就阐述如何开通函数计算服务。
开通函数计算
在服务开通前有必要先了解下函数计算的计费方式,产品共提供了三种方式,有试用额度、按量付费和资源包。计费项由函数调用次数、资源使用量和公网出流量组成。详细的可以点击链接前往了解详情。
如果你是第一次使用函数计算产品的,可以先领取一个免费的试用额度。如下:
但如果你是函数计算的老客户,要么按量付费,要么购买资源包,这里推荐经常使用的朋友购买资源包或者调整函数实例并发度来降低成本。
点击链接进入函数计算控制台,默认进入的是2.0版本的首页,点击首页右上角的体验函数计算3.0便可来到新版首页。
首次体验需要SLR授权,如下图,点击确定即可。
开通人工智能平台PAI
如果你是新用户,可以领取免费试用资源。如下:
在模型在线服务PAI-EAS面板,单击立即试用,如下:
点击前往PAI控制台。如下:
从开通服务的时候我们可以很清晰地看到PAI-EAS服务目前支持的地域受限,具体可查看官网文档有关说明。为了方便,这里就直接选择了杭州。如下:
由于本次体验不需要开通其他服务,所以组合服务这里我们不要勾选,以免产生不必要的费用。
首次开通需要授权,点击授权前往RAM访问控制。如下:
点击同意授权即可。如下:
完成授权后返回点击刷新,继续点击“确认开通并创建默认工作空间”。如下:
稍等片刻即可完成服务的开通。如下:
来到PAI控制台,点击左侧的工作空间列表,单击待操作的工作空间名称,进入对应工作空间内。如下:
开通云原生应用开发平台CAP
云原生应用开发平台CAP如今已经全面放开,不需要申请开通试用了,对于初次使用的用户来说,需要开通RAM授权,点击确认授权即可。
完成授权后,点击返回控制台,CAP的首页如下:
到这,部署体验前的产品和服务的开通就已经全部完成了。下面就分别就各个应用部署进行体验。
物料准备
由于接下来的所有实践都需要用到百炼平台的API-KEY,这里就提前准备并记录好。如下:
首先登录阿里云百炼大模型服务平台,获取API-KEY,如下:
在弹出窗口中创建一个新API-KEY。
完成后记录好这个KEY值,以方便后面函数计算部署服务时填入使用。
部署体验
本次方案涉及到四种部署方式,接下来将按照方案顺序依次部署体验并分享。
- 基于百炼调用满血版 API
这种部署方式是四种方式中最快捷的一种,只需下载一个Chatbox可视化界面客户端,简单配置就可使用。由于Chatbox的下载源位于Github,部分用户可能会因为网络限制问题而无法下载,这里就提供一下阿里云盘的下载方式供各位选用。Chatbox云盘下载地址
首先我们来到百炼平台的模型广场,选择DeepSeek-R1满血版模型,点击API调用示例。
在API示例页面,可以看到所有支持的模型类型以及计费方式,注意到2025年02月12日18:00:00~2025年02月23日23:59:59期间使用DeepSeek-R1 (671B)与 DeepSeek-V3 模型可以享五折优惠,还是非常给力的。不过对于新老用户,默认有100万Token的免费额度,也是足够体验使用了。
在了解了模型选择后,继续往下拉,在常见问题内容处,可以看到如何接入Chatbox的方式。
接下来我们直接打开Chatbox客户端,点击设置,按照上述参考配置一下有关参数。
在模型提供方这里选择添加自定义提供方,如下:
输入一个名称,比如我这里叫百炼API,根据上述API示例中的配置参考,粘入API域名、API路径以及百炼平台的API-KEY,模型名称输入deepseek-r1,点击保存。这里可能有伙伴会问,为啥模型这里我不能叫其他名字,因为这个是固定的,调用那个模型就填那个的名称。比如我们这里的,名称就叫deepseek-r1。
完成配置后,就可以直接与模型进行对话了。比如我这里问它“什么叫IMAX”,响应速度还是非常理想的,满血版就是不一样。
到这,一个方便快捷好用的deepseek调用就完成了,是不是完胜网页版。对于免费的100万Token使用情况,可以在百炼平台模型广场点击对应模型,查看详情。
比如我这个额度已经使用74万了,这主要源于近期频繁调用,所以额度耗用有点快。
- 基于人工智能平台 PAI 部署
选择方案中对应的部署方式,点击立即部署,来到相应的云起实验,人工智能平台 PAI 部署 DeepSeek-R1 模型_部署教程
在这里我们可以更详细了解到部署方案的具体内容和详细步骤,即使是新手用户也可以非常容易上手。下面我们直接开始部署体验。
进入人工智能平台PAI的控制台,点击左侧导航栏的Model Gallery,可以看到有非常多的预训练模型,为了节省体验成本,直接选择DeepSeek-R1-Distill-Qwen-7B,对于有条件的用户还是非常建议选择DeepSeek-R1满血版。不同模型对于硬件资源的规格选择是有差异的,尤其是显存计算资源。
点击部署,来到部署配置界面,选择vLLM加速部署的部署方式,资源类型选择公共资源。
部署资源这里根据部署教程推荐,选择ml.gu7i.c8m30.1-gu30,由于是公共资源,在忙时很容易出现额度不足问题,这时还可以选择V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)规格的。
其他配置项保持默认,点击部署,跳转到服务详情页,可以在这里看到服务日志和监控数据,这里需要耐心等待部署完成。
大概6分半钟后,部署状态变成运行中时,标明模型部署完成,可以开始调用了。
这里我们依旧使用chatbox客户端进行调用,还是打开客户端,点击设置,选择自定义模型提供方,填入必要信息。其中API域名和API-KEY的信息可以在刚才已经部署的模型中查看,点击查看调用信息选择公网地址调用即可。API路径填/v1/chat/completions。如下:
完成后,我们进行对话试试,让模型先做个自我介绍。
可以看到效果还是非常不错的,基于PAI部署的好处就是可以须写代码即可完成模型部署,还可以进行模型训练和微调满足特定需求,同时用户还可以根据实际需求选择不同规格或资源的模型,从而实现效益的最大化。
体验完成后,一定要记得释放资源,以免产生不必要的扣费,进入PAI控制台,在PAI-EAS中找到部署的模型服务,点击删除即可。
- 基于函数计算部署
选择方案中对应的部署方式,点击立即部署,来到相应的云起实验,函数计算 FC 部署 DeepSeek-R1 模型_部署教程
按照部署教程中的快速部署链接来到CAP项目部署页面,点击部署项目即可。
部署前会对所需环境和组件的开通情况进行自建,如发现未开通,只需点击确认部署即可,未开通的服务会一并自动开通。
部署中需耐心等待
等两个服务都打勾完成部署时,标明项目已部署成功。
此时点击访问地址就可以打开WEB页面,实现与模型的对话了。
如果WEB方式你不习惯,没关系,因为项目部署了ollama,它是本地部署大型语言模型的工具,同样可以通过Chatbox客户端进行调用。这里我们对客户端进行下配置,模型提供方选择Ollama API,如下:
API域名填入项目的访问地址,也就是WEB的地址,模型下拉即可选择到cap-deepseek-r1:latest,点击保存,就可以实现客户端对话了。
基于函数计算调用的好处在于能为用户提供友好的WEB交互界面,可以开箱即用,不依赖于客户端调用。同时用户也无需担心底层资源管理和运维问题,CAP提供了弹性伸缩和高可用性且按量付费,帮用户有效降低了资源闲置成本。
- 基于GPU 云服务器部署
选择方案中对应的部署方式,点击立即部署,来到相应的云起实验,GPU 云服务器部署 DeepSeek-R1 模型_部署教程
创建GPU云服务器的具体步骤可参考部署教程,这里我仅提示几个需要注意的地方。
首先需要特别注意的就是需要安装AGPU驱动,且选择最新版本。
其次是存储要尽可能多分配,因为单模型所占存储就很大,这里以分配100G为例。
最后就是安全组的设置,要确保 22、8000、8080 端口号可以正常通信。
通过 Workbench 远程连接云服务器,可以看到已经开始自动安装GPU驱动了,这里安装耗时较长,根据网络快慢,时间差异较大,建议耐心等待,我这里耗时6分钟左右。
驱动安装完成后,实例会自动重启,完成后重新登录,通过如下一键安装脚本,继续运行模型下载和vLLM服务的安装。
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
整个安装过程耗时很长,我这里总耗时40分钟左右。这里生成的Token要复制保存好,方便后面客户端调用。
接下来可以通过服务器的公网IP加端口8080进行web访问,也可以通过vllm的8000端口配合chatbox客户端进行调用。
这种部署方式最大的问题在于耗时很长且非常容易出现部署异常,比如服务启动异常、模型下载不完整等一系列问题,是四种方式中最考验用户技术能力的一种了。
体验总结
从上面的实践体验来说,最适合我的DeepSeek 使用方式还是基于百炼调用满血版 API的方式,首先,这种方式无需任何应用部署,也就是没有资源或硬件的限制;其次,它提供的还是满血版本的deepseek,相较于其他使用方式,这里所能获得的体验更好;最后就是它还给每位用户提供了100万的免费Token,足够用户把玩一段时间了,既高效又实惠,非常适合想快速了解并使用deepseek的用户选择。
方案提供的四种部署方案适合不同需求的用户选择,每种方式都有其固有的优势和不足,比如基于百炼调用满血版 API的这种方式,虽然有100万免费Token,但当这个额度耗尽,用户所要承担的使用成本将会有所增加,但对于有多个账号的用户来说,通过更换其他账号的API-KEY也许可以又续上一段,对于长期来说,此为缓解之计并不能一直如此。其实目前模型调用Token的计费还是非常低的,如果你不是长期需要大量调用的话,这么低廉的成本还算可以接受。而对于编码开发者来说,也许可以通过使用通义灵码获得长期免费支持。
方案体验
1、本方案涉及到可以免费试用的产品还是有多个的,比如百炼平台、人工智能平台PAI和云原生应用开发平台CAP,可方案中只提供了函数计算的入口,其他可免费试用的产品并没有提供,建议加上。
2、推荐方案这里缺少必要的内容更新,虽然推荐的这两个从大模型角度是存在关联的,但与本次方案差异还是有的,建议每期的方案都应该匹配更贴切的内容。比如推荐这个方案可能会更好。轻松部署,即刻触达 Qwen2.5 的最佳体验
部署体验
1、在基于人工智能平台 PAI 部署的教程中,存在少量内容过旧问题,从实际体验来看,虽然不影响最终的部署,但作为官方文档还是保持更新并严谨较好。
2、基于GPU 云服务器部署的部署教程只有手动版教程,并没有基于资源编排ROS一键部署的教程,从实际体验来说,还是一键部署符合体验需求,一方面可以极大缩短各个服务组件开通配置时间,二来可以降低因配置差异而发生的部署异常,建议补全。
3、基于GPU 云服务器部署方式,在所有服务均安装到位,进行web访问时,会出现模型无法加载的问题,需重启docker服务进行重新启动才可以。
隐藏福利
第一个福利就是体验如下的两种部署方式,可以获得1000社区积分(可在积分商城兑换实物哟),基本是零门槛,新手小白也可以轻松上手。
第二个福利就非常给力了,适合乐于分享的小伙伴,只需完成四种部署方式的体验并附带你真实的体验分享即可,有图文和视频两种方式,多发多得,简直不要太给力了。
最高得 +AirPods 3+小米手环 8pro+阿里云社区定制T恤+阿里云评测定制鼠标垫+阿里云评测最佳创作者证书+300社区积分
更多推荐
所有评论(0)