最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。

老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。

为什么呢?

目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。

虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。

官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。

不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。

此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。

看完全文,你会收获:

1、满血 DeepSeek R1 模型 API 搭建方式

2、本地部署 DeepSeek R1 模型 搭建方式

一、个人知识库使用效果(满血版)

来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事

**DeepSeek 确实很好用,但关键还是会不会提问。**如果不会提问,AI 再强也帮不上忙。

除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!

AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。

从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。

当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。

二、API 搭建知识库

如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。

我们来看看怎么利用 API 用上满血的 R1 模型(671 B)。

1、先下载一个叫 Cherry Studio 的软件。

地址: https://cherry-ai.com/download

2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。

地址:https://cloud.siliconflow.cn/i/TAAOvaXg

3、来到 API 密钥生成界面,创建或者复制已有的密钥。

4、来到 Cherry Studio,配置 API Key。

5、在模型广场首页,排在前两位的就是**「硅基流动」「华为云」**合作发布的 DeepSeek R1 / V3 模型。

如果需要推理能力,记得打开并复制 R1 模型的名称。

6、在模型服务的硅基流动下方,添加 R1 模型。

7、记得点击检查,测试下 API 是否可以正常访问

8、现在对话模型有了 R1,还缺少一个嵌入模型。

嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中

在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。

过去我有通俗解释过 RAG 技术,大家如果不了解,可以回头看下:

我们再配置一个向量模型:**BAAI/bge-m3。**如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。

按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。

9、在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。

10、上传本地文件进行向量化。

如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格数学公式,解析效果会很差,甚至无法解析。

遇到这种情况,建议配合过去我介绍的 PDF 转结构化文档 的方案来使用!!!

这样才可以正常回复知识库的内容:免费AI神器!精准解析 PDF 还能一键翻译!

如果追求性价比,推荐使用 Doc2x:https://doc2x.noedgeai.com?inviteCode=4A6KOD

如果希望更加稳定,那么可以考虑 Textin :https://www.textin.com/market/detail/pdf_to_markdown

当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。

11、测试使用,这一步添加助手,并选择刚配置的 满血 R1 模型

如果不想每次在添加助手时选择模型,可以将它设置为 默认模型

我们来测试一下,发现 DeepSeek 已经开始深度思考了。

AI 回复的答案和原文一致。

原文内容:

三、本地部署搭建知识库

如果只是想 简单体验,或者本地算力充足、希望保护数据安全,那么可以考虑 本地部署 的方案。

1、访问 Ollama 官方地址:https://ollama.com/download,下载软件。

建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。

2、双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)。

地址:https://ollama.com/library/deepseek-r1

如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。

有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。

下载并运行成功后,就可以和 DeepSeek R1 对话啦。

3、当然,我们可以用 Cherry Studio 作为本地 R1 模型的 UI 界面。

打开软件的配置,选择 Ollama,在管理按钮中选择自己部署的模型。

如果选不到,就手动添加模型,API 秘钥填不填无所谓。

最后点击检查,测试下网络连通性,出现连接成功即可。

接下来就可以在添加助手时,选择本地部署的 R1 模型啦。

4、再测试使用一下,答案与原文一致,搞定 ~

因为我用的是 Mac,所以没测试 Windows 设备。不过两者区别不大,大家可以自行尝试下。

四、总结

看到这里,相信你已经找到最适合自己的 DeepSeek 个人知识库方案了。

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐