
5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。
老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。
为什么呢?
目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。
虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。
官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。
不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。
此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。
看完全文,你会收获:
1、满血 DeepSeek R1 模型 API 搭建方式
2、本地部署 DeepSeek R1 模型 搭建方式
一、个人知识库使用效果(满血版)
来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事?
**DeepSeek 确实很好用,但关键还是会不会提问。**如果不会提问,AI 再强也帮不上忙。
除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!
AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。
从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。
当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。
二、API 搭建知识库
如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。
我们来看看怎么利用 API 用上满血的 R1 模型(671 B)。
1、先下载一个叫 Cherry Studio 的软件。
地址: https://cherry-ai.com/download
2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。
地址:https://cloud.siliconflow.cn/i/TAAOvaXg
3、来到 API 密钥生成界面,创建或者复制已有的密钥。
4、来到 Cherry Studio,配置 API Key。
5、在模型广场首页,排在前两位的就是**「硅基流动」和「华为云」**合作发布的 DeepSeek R1 / V3 模型。
如果需要推理能力,记得打开并复制 R1 模型的名称。
6、在模型服务的硅基流动下方,添加 R1 模型。
7、记得点击检查,测试下 API 是否可以正常访问。
8、现在对话模型有了 R1,还缺少一个嵌入模型。
嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中。
在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。
过去我有通俗解释过 RAG 技术,大家如果不了解,可以回头看下:
我们再配置一个向量模型:**BAAI/bge-m3。**如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。
按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。
9、在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。
10、上传本地文件进行向量化。
如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格 和 数学公式,解析效果会很差,甚至无法解析。
遇到这种情况,建议配合过去我介绍的 PDF 转结构化文档 的方案来使用!!!
这样才可以正常回复知识库的内容:免费AI神器!精准解析 PDF 还能一键翻译!
如果追求性价比,推荐使用 Doc2x:https://doc2x.noedgeai.com?inviteCode=4A6KOD
如果希望更加稳定,那么可以考虑 Textin :https://www.textin.com/market/detail/pdf_to_markdown
当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。
11、测试使用,这一步添加助手,并选择刚配置的 满血 R1 模型。
如果不想每次在添加助手时选择模型,可以将它设置为 默认模型。
我们来测试一下,发现 DeepSeek 已经开始深度思考了。
AI 回复的答案和原文一致。
原文内容:
三、本地部署搭建知识库
如果只是想 简单体验,或者本地算力充足、希望保护数据安全,那么可以考虑 本地部署 的方案。
1、访问 Ollama 官方地址:https://ollama.com/download,下载软件。
建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。
2、双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)。
地址:https://ollama.com/library/deepseek-r1
如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。
有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。
下载并运行成功后,就可以和 DeepSeek R1 对话啦。
3、当然,我们可以用 Cherry Studio 作为本地 R1 模型的 UI 界面。
打开软件的配置,选择 Ollama,在管理按钮中选择自己部署的模型。
如果选不到,就手动添加模型,API 秘钥填不填无所谓。
最后点击检查,测试下网络连通性,出现连接成功即可。
接下来就可以在添加助手时,选择本地部署的 R1 模型啦。
4、再测试使用一下,答案与原文一致,搞定 ~
因为我用的是 Mac,所以没测试 Windows 设备。不过两者区别不大,大家可以自行尝试下。
四、总结
看到这里,相信你已经找到最适合自己的 DeepSeek 个人知识库方案了。
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为
等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
与其焦虑……
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、LLM大模型经典书籍
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套LLM大模型报告合集
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、LLM大模型系列视频教程
四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)
LLM大模型学习路线 ↓
阶段1:AI大模型时代的基础理解
-
目标:了解AI大模型的基本概念、发展历程和核心原理。
-
内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
-
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
-
内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.3 流水线工程
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
-
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
-
内容:
- L3.1 Agent模型框架
- L3.2 MetaGPT
- L3.3 ChatGLM
- L3.4 LLAMA
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
-
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
-
内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
这份 LLM大模型资料
包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
更多推荐
所有评论(0)