
史上最全!DeepSeek骚操作合集:从部署、开发到知识库搭建
官网繁忙,到底哪里的DeepSeek有空?AI应用构建繁杂,最快要多久?等不及了,DeepSeek啥时候能帮我干活......DeepSeek 最近火得不行,开发者们又惊又喜又担心自己用得慢被甩开差距。
官网繁忙,到底哪里的DeepSeek有空?AI应用构建繁杂,最快要多久?等不及了,DeepSeek啥时候能帮我干活…DeepSeek 最近火得不行,开发者们又惊又喜又担心自己用得慢被甩开差距。
别着急,腾讯云早就支持部署 DeepSeek,而且还更新了一堆新产品,开发者用这些工具搞出了不少新花样。这篇指南就从模型部署、应用开发和开发提效三个方面,带大家全面了解 DeepSeek。
01
部署篇丨满血、本地、云端、API…到底怎么选?
官网服务的不稳定,开发者自己动手部署 DeepSeek 的需求旺盛。但不同的部署方式对应不同的场景和工具,如何选择最合适自己的方式?
1.调用 API,“满血版”免费体验的首选
DeepSeek 和各大云厂商都敞开了 API 的大门,开发者只要拿好工具就能上手。要是你只想简单尝鲜或者结合具体场景验证一下,直接用 API 接入业务系统就行。
(如果你创建的是 DeepSeek 官网 API,一定要注意妥善保存,不给看第二次的机会)
比如腾讯云的 API,进到“知识引擎原子能力”页面,点一下“立即接入”,用 OpenAI 的 SDK 创建你的专属 API KEY。
然后在 Chatbox 里填入密钥,一个稳定服务的满血版 DeepSeek 就搞定了。
(记住你的API域名和密钥,后面还会频繁用到)
-
base_url: https://api.lkeap.cloud.tencent.com/v1
-
path: /chat/completions
-
模型:DeepSeek-r1
👉腾讯云 API 创建地址:
https://console.cloud.tencent.com/lkeap
👉Chatbox 下载地址:
https://chatboxai.app/zh
2.本地部署,适合多大尺寸的模型?
满血版好是好,但想有更高可玩性又注重数据隐私,那就试试本地部署。用一台电脑打造专属于自己的 DeepSeek,再也不让 AI 分享和等待。
不过大部分用户电脑显存大小不超过20GB,能选择的模型尺寸其实非常受限,即使下载了400多 GB 的满血 671B,实际运行时却会遇到 DeepSeek 惜字如金,半天出来几个字,选模型还得看看配置:
-
只有核显的,选 1.5b;
-
独显 4G 显存的,选 8b;
-
独显 8G 及以上显存的,选 8b 或 32b-Q4。
(苹果M1-M2 的普通版建议选 8b,Pro 或者 Max 版可以用 32b)
具体操作也不麻烦,下载 ollama 让大模型跑起来,从 ollama 官网挑好合适的 DeepSeek 模型尺寸,再下个 chatbox,对话界面就简单易用了。
3.云上私有部署比你想象的更简单
受限于个人电脑配置,本地部署可能难体验更聪明的模型,但云上配置可以轻松搞定。腾讯云高性能计算服务“HAI”,让开发者 3 分钟内就能完成模型启动和配置,省去买卡、装驱动、配网络等繁琐步骤。
登录腾讯云 HAI,新建 DeepSeek-R1 应用,创建后通过站内信获取密码,选择可视化界面(ChatbotUI)或命令行(JupyterLab)直接调用。在命令行还能自由切换不同规格的模型,满足个性化需求。
推荐通过 OpenWebUI 可视化界面使用链接,界面清爽,小白友好。
👉详细操作指南:
https://cloud.tencent.com/document/product/1721/115966
4.你日常用的工具里可能早就有 DeepSeek 了!
不少编程和开发工具已经接入了 DeepSeek 服务,免部署、简单代码,还能免费体验。如果平时就常用这些工具,运行 DeepSeek 还能比调用 API 更简单。
Cloud Studio:零代码、免部署
Cloud Studio 不仅预装了 DeepSeek,还把 ollama、chatbox 这些必要工具都打包在一起,省去你的下载安装时间,开箱即用。
(记得点击白色对话框的按钮跳转对话界面)
👉操作指南:
https://mp.weixin.qq.com/s/zk4hfodO_RCtd2TlRqjVog
云原生构建(CNB):10s内启动,免安装部署
如果你喜欢在容器环境中工作,CNB提供的云原生开发环境,10 秒内就能启动 DeepSeek 模型,开发者还能享受免费额度。现在,CNB提供给开发者的1600核时/月免费额度,相当于64G机器满负荷运转50小时。
(选择模型尺寸,然后要选择右上角橙色的云原生开发)
远橙开发,启动!
👉来自一个开发者的操作指引和倾情推荐:
https://juejin.cn/post/7468875298739961907?share_token=56942056-5629-4eb9-8243-ce63c14c9775
云应用:三步完成私有部署
对于那些希望快速上线的开发者来说,云应用提供了一个即插即用的解决方案,让你能够迅速将DeepSeek集成到自己的项目中。
应用内置了 Open WebUI 可以跟 DeepSeek 模型对话,打开应用即可访问。
👉操作指南:DeepSeek R1登陆云应用,三步完成私有部署
02
应用篇丨如何快速构建基于 DeepSeek 的 AI 应用?
1. 企业级部署,支持 DeepSeek 全尺寸模型
对于企业来说,想把 DeepSeek 接入业务系统甚至开发特色 AI 应用,要考虑模型尺寸、私域数据、人员权限、数据安全等,需要专门的部署流程和管理方案。中小企业可用腾讯云 HAI 部署满足部分需求,而更大规模的企业,腾讯云 TI 平台能搞定。
(TI支持全尺寸DeepSeek模型部署)
TI 平台可部署 DeepSeek 全部 8 个版本的模型,部署后支持页面对话和 API 调用。TI 私有化版本也即将上线,与公有云能力持平。不过模型越大并非越好,企业要根据自身需求在性能、成本、效率之间权衡。以 TI 部署 DeepSeek-R1-Distill-Qwen-1.5B 模型为例,处理简单任务更快、占用资源更少、部署时长更短。
👉详细操作部署流程参考:保姆级教程丨全网最细DeepSeek部署操作指南
2.零技术门槛,3分钟构建AI应用
解决了DeepSeek部署的问题,是时候考虑干点大事儿了,引入企业或者生产场景构建一个智能应用。在腾讯云知识引擎里,即使是零开发经验,也能体验到快速造一个应用的满足。
进入知识引擎后,开发者可点击新建应用,将生成模型更换为“DeepSeek-R1”,并设置提示词及开启“联网搜索”。配合腾讯云OCR、多模态等技术,结合知识库和RAG能力,快速搭建知识库问答应用。通过上传企业内部文档,平台自动解析入库,提升问答效果。
- 先来个简单的
建一个满血满电的 DeepSeek 对话助手,记得把「联网搜索」打开。
- 稍微复杂点
可以导入私域信息或者企业内部的文档。
简单配置之后,精准回答你的问题,还能提供信息来源,答有所依靠。
- 来个进阶版本的
搭建一个智能图书客服,像搭建乐高一样,通过把工作流拆分,让 AI 帮你站岗。
👉详细指南:
构建知识库问答应用:
https://cloud.tencent.com/document/product/1759/116007
构建工作流应用:
https://cloud.tencent.com/document/product/1759/116015
3.让DeepSeek开口说话,10s跑通AI语音
- Step1:登录控制台
登录腾讯云官网【实时音视频控制台】,在【开发辅助】中选择快速跑通AI实时对话,点击【开始使用】即可开始快速配置、测试并集成你自己的AI实时对话服务。
- Step2:参数配置
根据指引,分别完成基础配置、STT 语音识别配置、LLM 大语言模型配置以及 TTS 语音合成配置。
(这里的API可以选择其他第三方API,例如部署篇的API部署)
- Step3:开始对话
完成参数配置后,点击【开始对话】就能让你选择的AI开口说话了,还能随时配置,调校出最适合的“DeepSeek好声音”。
还可点击【快速跑通】,复制代码在自己的本地环境快速跑通 AI 实时对话。
03
开发篇丨DeepSeek如何帮我干活?
1.代码助手 + DeepSeek,堪称编程神器
在腾讯云 AI 代码助手,开发者可接入 DeepSeeK R1 及其他模型的官网 API,也可接入本地 Ollama 部署的 Deepseek 大模型,结合腾讯云 AI 代码助手和 DeepSeek,简单配置就能搭建智能问答、实时搜索、补全代码于一体的辅助编程工具。
给你写代码找一个DeepSeek搭子只用三步👇
-
下载IDE,并在插件市场中安装腾讯云AI代码助手。
-
调用API,点击对话框的右下角的进入模型设置。
(API创建方式参考部署篇丨API调用)
-
DeepSeek官网API选择DeepSeek
-
其他三方API选择DeepSeek-Compatible
-
见证奇迹的时刻
2.小程序开发,3行代码接入“满血”DeepSeek
专注小程序的开发者有福了,小程序接入云开发 AI 能力,开发者最少仅需输入 3 行代码,就能把满血版 DeepSeek 大模型能力接入到小程序中,云开发新用户首月套餐免费,还有 100 万 token。
具体而言,小程序开发过程中,有三种体验 DeepSeek 的姿势。
- **通过 SDK 直接调用大模型:**适用于非对话类的通用场景,如文本生成、智能补全、智能翻译等。
- **通过 SDK 调用 Agent(智能体)对话能力:**这种方式适合专门的 AI 对话场景,支持配置欢迎语、提示词、知识库等对话中需要的能力。
- **使用 AI 对话组件:**这种方式对于专业前端开发者更友好,可以基于云开发提供的 UI 组件,快速在小程序中植入 AI 对话能力。
👉使用指南:
小程序接入云开发 AI 能力文档:
https://docs.cloudbase.net/ai/miniprogram-using
云开发 AI 能力示例仓库:
https://github.com/TencentCloudBase/cloudbase-ai-example
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为
等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
与其焦虑……
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、LLM大模型经典书籍
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套LLM大模型报告合集
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、LLM大模型系列视频教程
四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)
五、AI产品经理大模型教程
LLM大模型学习路线 ↓
阶段1:AI大模型时代的基础理解
-
目标:了解AI大模型的基本概念、发展历程和核心原理。
-
内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
-
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
-
内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.3 流水线工程
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
-
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
-
内容:
- L3.1 Agent模型框架
- L3.2 MetaGPT
- L3.3 ChatGLM
- L3.4 LLAMA
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
-
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
-
内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
这份 LLM大模型资料
包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
更多推荐
所有评论(0)