
DeepSeek-R1大模型本地部署
RAG 技术的核心是检索,想要让 AI 具备知识库的能力,首先得把知识库转换成它能理解的格式,而这就需要Embedding(向量嵌入)技术。Embedding 的作用将文本转化为 AI 可理解的高维向量。例如,“苹果”和“梨”在向量空间中会更接近,而“苹果”和“计算机”则相距较远。提高相似度匹配的能力。当你向 AI 提问时,它会把你的问题转换成向量,然后在本地知识库里找到最相关的内容,再给出答案。
一、为什么要本地部署大模型?
最近,AI 大模型的应用越来越广泛,DeepSeek 作为一款高性能的开源大模型,吸引了很多人的关注。但是,许多人仍然选择直接使用网页版,而不是本地部署。那么问题来了:为什么要本地部署?
1.数据隐私问题
如果你需要 AI 处理敏感数据(如公司机密、个人隐私信息),直接使用在线大模型往往意味着需要将数据上传到云端,而这可能会带来隐私泄露的风险。
2.传输限制与文件管理
大部分在线 AI 服务对上传文件的数量、大小有限制,并且很多高级功能需要付费。而且,每次开启新对话,往往需要重复上传文件,不便于管理和修改。
3.个性化知识库
通过本地部署,结合 RAG(检索增强生成)或者微调技术,我们可以构建个性化知识库,让 AI 更精准地回答特定领域的问题,比如法律咨询、医学诊断、企业运营等。
二、RAG 技术 VS 传统微调:哪个更适合你?
在提升 AI 回答准确性时,通常有两种方式:微调(Fine-tuning) 和 RAG(Retrieval-Augmented Generation)。
对比项 | 微调 | RAG |
---|---|---|
原理 | 通过额外训练,让模型记住新的知识 | 先检索相关信息,再生成回答 |
适用场景 | 需要高精准度、行业专属知识 | 需要处理海量外部数据 |
优点 | 适应特定任务,性能稳定 | 数据更新更快,不需要重新训练 |
缺点 | 训练成本高,计算资源要求高 | 依赖外部知识库的检索效果 |
一个形象的比喻: |
- 微调就像考前狂刷模拟题,提升对特定知识的掌握;
- RAG 则像是考试时偷偷翻小抄,遇到不懂的问题可以即时查询答案。
如果你不想花费大量计算资源去训练一个微调模型,那么 RAG 技术可能更适合你。
三、什么是 Embedding?如何用它让 AI“读懂”你的知识库?
RAG 技术的核心是检索,想要让 AI 具备知识库的能力,首先得把知识库转换成它能理解的格式,而这就需要 Embedding(向量嵌入) 技术。
Embedding 的作用
- 将文本转化为 AI 可理解的高维向量。例如,“苹果”和“梨”在向量空间中会更接近,而“苹果”和“计算机”则相距较远。
- 提高相似度匹配的能力。当你向 AI 提问时,它会把你的问题转换成向量,然后在本地知识库里找到最相关的内容,再给出答案。
Embedding 的应用场景
- 企业内部文档搜索:让 AI 帮你查找公司政策、客户资料等。
- 法律、医学咨询:让 AI 参考专业书籍,给出精准回答。
- 个性化聊天 AI:让 AI 记住你的对话历史,提供更贴心的服务。
四、本地部署 DeepSeek:从零到运行
本地部署的过程并不复杂,但如果不使用科学的方法下载模型,可能会浪费很多时间。下面是具体流程:
1. 下载并安装 Ollama
Ollama 是一个本地运行大模型的工具,可以极大简化部署过程。
👉 下载地址:https://ollama.com/
⚡ 加速下载小技巧:直接在官网下载速度可能较慢,可以 右键复制下载链接,用迅雷等工具进行下载。
下载完成之后,打开.exe后缀的可执行文件,点击install安装即可,ollama默认安装在C盘下面。
2.Ollama环境变量配置
鼠标右键单击桌面的“我的电脑”图标,然后选择“高级系统设置”,单击“环境变量”,配置ollama环境变量,如上图所示。这里我们只配置两个环境变量,一个是OLLAMA_MODELS,主要设置模型的文件保存位置(改成你的电脑上的一个目录)。另外一个环境变量是OLLAMA_HOST,表示ollama 服务监听的网络地址,默认为127.0.0.1 ,这里我们如果想要其他电脑能够访问ollama,ip地址改为0.0.0.0,端口为11434 ,如果端口有冲突,可以改为其他端口(如8080)。
3.下载Deepseek模型
输入网址https://ollama.com/library/deepseek-r1,根据自己的电脑配置选择合适的模型,因为小编的电脑配置比较一般,所以选择1.5b模型,如图5所示。打开命令行CMD窗口(PS:按住"窗口键+R键"组合快捷键,在弹出的运行对话框中输入“cmd”,即可打开cmd窗口。或者直接在开始菜单中搜索“命令行”)。
ollama run deepseek-r1:1.5b
直接复制命令到ollama命令到cmd命令行窗口中,按回车键运行,如图6所示,这样就可以本地使用deepseek-r1进行创作了。
在弹出的对话框中,点击“获取Microsoft Edge扩展”链接,进入插件应用商店,如图8所示。
在应用商店搜索框中输入“Page Assist”,就可以看到这个插件,单击“获取”。
然后,在弹出的对话框中,单击”添加扩展“,即可完成插件安装。
如图11所示,先点击上方的”插件“按钮,然后单击”Page Assist“插件,再选择”deepseek-r1:1.5b“,最后输入提示词,就可以在网页中创作。
总结
本地部署大模型不仅仅是为了好玩,它在数据隐私、个性化定制等方面有着巨大的优势。
✅ 保护敏感数据:不需要将数据上传到云端,适用于医疗、法律、企业内网等场景。
✅ 构建个性化知识库:结合 RAG 技术,让 AI 能够基于本地数据给出精准回答。
✅ 离线使用,无需联网:即使在没有网络的情况下,AI 仍然可以提供强大的能力。
当然,如果你没有隐私保护或个性化定制的需求,直接使用网页版 DeepSeek 可能会更方便,毕竟个人搭建高参数模型的硬件成本较高。
我的DeepSeek部署资料已打包好(自取↓)
https://pan.quark.cn/s/7e0fa45596e4
但如果你想知道这个工具为什么能“听懂人话”、写出代码 甚至预测市场趋势——答案就藏在大模型技术里!
❗️为什么你必须了解大模型?
1️⃣ 薪资爆炸:应届大模型工程师年薪40万起步,懂“Prompt调教”的带货主播收入翻3倍
2️⃣ 行业重构:金融、医疗、教育正在被AI重塑,不用大模型的公司3年内必淘汰
3️⃣ 零门槛上车:90%的进阶技巧不需写代码!会说话就能指挥AI
(附深度求索BOSS招聘信息)
⚠️警惕:当同事用DeepSeek 3小时干完你3天的工作时,淘汰倒计时就开始了。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?老师啊,我自学没有方向怎么办?老师,这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!当然这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!
更多推荐
所有评论(0)