
Ollama+DeepSeek+AnythingLLM打造私有知识库
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。由于新岗位的生产效率,要优于被取代岗
1、需要的软件及工具
- Ollama
- DeepSeek
- nomic-embed-text
- AnythingLLM
2、安装Ollama+DeepSeek
2.1、安装Ollama
Ollama官网:https://ollama.com/
1、下载Ollama
2、安装Ollama
PS:Ollama安装不支持修改安装路径,默认安装到系统盘(C盘),大概要占4G的存储空间,安装前请先确认好系统盘空间
3、Ollama安装成功
2.2、 拉取DeepSeek
DeepSeek提供了多个版本,每个版本的参数量不同,应用场景也不同,需要的配置也不同
版本 | 命令 | ||
---|---|---|---|
1.5b | ollama run deepseek-r1:1.5b | 1.1GB | 适用于一般文字编辑使用 |
7b | ollama run deepseek-r1:7b | 4.7GB | DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型 |
8b | ollama run deepseek-r1:8b | 4.9GB | |
14b | ollama run deepseek-r1:14b | 9GB | |
32b | ollama run deepseek-r1:32b | 20GB | |
70b | ollama run deepseek-r1:70b | 43GB | |
671b | ollama run deepseek-r1:671b | 404GB |
根据自己的电脑配置和需求选择拉取合适模型即可,我这边选择的是7b的
下载时间比较长,请耐心等待
下载完成如图
这个时候就是进入与人工智能对话的场景了
我们同样让它先做个自我介绍
7b的模型,能力有限,说话比较没有内容
咱们问个在网上看到的问题
从输出的内容来看,他真的是有在思考,接下来问一个头疼的问题
2.3、安装Chatbox
Chatbox官网:https://chatboxai.app/zh
右键“以管理员身份进行”
安装完成
选择使用自己的API Key 或本地模型
选择Ollama API
选择Ollama之后,可以自动匹配到DeepSeek模型
选择模型之后,点击保存
使用Chatbox测试部署的DeepSeek,由于多了一层传输,获取的回答速度明显慢了很多
至此,本地版本的DeepSeek已经部署完成
3、安装nomic-embed-text
nomic-embed-text主要用于文本嵌入和句子相似度任务,能够将这些任务应用于分类、聚类、检索等多种自然语言处理场景。该模型在处理短文和长文本任务方面表现出色,适用于各种NLP任务,如文本相似度计算、分类、聚类、检索。 1、拉取安装nomic-embed-text
4、安装AnythingLLM
AnythingLLM官网:https://anythingllm.com/
1、进入官网
2、进入下载页面,根据自己的电脑配置进行下载
3、安装时间比较长,耐心等待下
安装完成之后,直接启动
4、启动之后,点击Get started
5、进入Ollama
6、点击选择,就会出现我们部署的DeepSeek模型,点击右侧的箭头进入下一步
7、这一步类似一个免责声明,点击右侧箭头,进入下一步
8、这边我选择跳过
9、创建工作空间
10、AnythingLLM设置-LLM首选项
此处为选择大语言模型,起始设置时我们已经选择了Ollama
11、AnythingLLM设置-Embedder首选项
这边是在选择矢量模型,我们选择刚安装的nomic-embed-text,保存更改
12、工作区》设置》聊天设置,修改大语言模型提供者为DeepSeek
13、更新工作空间
14、工作区》设置》代理配置,修改大语言模型提供商为DeepSeek,并更新工作空间
5、知识文件
在上传文件(投喂数据)之前,我们先问下DeepSeek两个它不知道的问题
第一个问题:CodeIsPower公众号是干什么的
第二个问题:2025年2月7日股市涨了多少个点
PS:因为DeepSeek的模型数据只更新到了2023年12月份,对于之后的问题它是无法回答的
上面可以看出来对于它不知道的问题,它也确实无法回答,这个时候如果我们给它投喂一些数据呢,教教它
第一个文件:CodeIsPower简介.txt
第二个文件:2025年02月07日股市情况.txt
1、在工作区界面,点击上传两个文件
2、选择文件移动到右侧工作空间
3、保存并导入
4、更新成功
5、更新完成之后,向量数据库中显示向量数据为2
6、上传数据之后再问,来看看得到的信息
可以看到我们在上传完数据之后,DeepSeek准确的回答了相关问题,按照这个方法,我们也可以上传自己的多个文件,让DeepSeek帮你从中提取信息、总结归纳、生成内容。快来试试吧
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)