零基础-本地部署Deepseek R1以及基于Cherry Studio的本地个人知识库
大模型应用、#Deepseek#、#个人知识库#、#本地部署大模型Deepseek-R1是一个开源大语言模型,用户可将其部署在自己的电脑上,至于其优点和缺点不予多说。根据自己情况而定。本文部署大模型无需任何代码能力,适用于大部分想尝试的伙伴。
#大模型应用#、#Deepseek#、#个人知识库#、#本地部署大模型#
Deepseek-R1是一个开源大语言模型,用户可将其部署在自己的电脑上,至于其优点和缺点不予多说。根据自己情况而定。
本文部署大模型无需任何代码能力,适用于大部分想尝试的伙伴。
部署之前软件准备: 根据自己电脑系统,下载安装对应的软件版本 Cherry Studio: Cherry Studio 官方网站 - 全能的AI助手
LM Studio:Download LM Studio - Mac, Linux, Windows
本地部署Deepseek R1:
打开LM Studio:根据下面图片指示进行软件中文语言和镜像设置(勾选使用镜像,无需科学上网也可以下载各种模型)
在我的模型处,设置下载模型的保存地址(默认是C盘,可根据自己的情况考虑是否更改,我这里是改为D盘)
设置完毕之后,进行模型的下载。 点击下图所示“发现”这里,下载自己所需的模型(deepseek r1)
我们这里选择的“DeepSeek-R1-Distill-Qwen-14B-GGUF/DeepSeek-R1-Distill-Qwen-14B-Q8_0.gguf”,各位根据自己的设备情况选择(我自己的设备选择这个其实运行很慢,但是建议不要选q4版本以下的,那样准确率会衰减很多。一般建议q5及以上,视自己情况而定)。
本地对话测试:点击对话聊天框,新建对话,选择已下载的模型。(过程截图都在下面的图片上标注了)
等待加载完成。
下面截图的这个位置可进行一定的参数调整(可以使用默认的):
加载完成即可测试对话了,我选择的模型思考阶段太慢了14b-qwen-q8。
到此本地部署部分完毕,测试已成功。
使用LM Studio——将本地模型部署为本地服务(以供Cherry Studio调用)具体步骤如下图所示:
在LM Studio中复制发布的本地模型名。
这里切换软件了,使用Cherry Studio。 打开Cherry Studio——添加本地部署的服务,按照图中1-2-3步骤添加LM Studio中配置好的模型。
返回Cherry Studio聊天界面,按照图示1-2-3设置对话模型
设置完毕即可对话:
构建本地个人知识库:
在LM Studio下载词嵌入模型(如:bge-large-zh-v1.5-gguf)
如下图,在LM Studio中将词嵌入模型部署为服务。
在LM Studio中复制我们发布的词嵌入模型的名字。
在Cherry Studio中添加词嵌入模型服务(跟前面deepseek一样)。
如下图所示,表示这一步已经成功。
重点来了!
在Cherry Studio中创建个人知识库,步骤如下图所示。
添加我们的知识库所需资料,可以是文件或文件夹等等,然后等待处理完成。等到如下图红色圈出部分一样即可。
至此知识库创建完成。
但是在后续测试汇总发现选用的嵌入模型以及pdf资料文件不适合。所以做了更换了材料和词嵌入模型。
接下来测试采取词嵌入模型为:text-embedding-granite-embedding-278m-multilingual模型
新建知识库,做了对比(资料为pdf文件和doc文件,内容是一样的,仅仅格式做了转换的)。
当仅仅使用pdf的文件时。部分内容无法回答。因为pdf属于版式文件适合阅读,但知识库AI助手解析会存在效果不佳的情况。回答情况如下:
当加入doc的文件时。回答如下:
注意:问答的时如果采用知识库,需要先选择知识库才行哦,如下图:
总结:知识库牛不牛还得看资料质量、嵌入模型能力。我前期测试了一些下载量还可以的嵌入模型处理中文pdf文件效果还是不好,其次资料最好不要是pdf的,markdown/doc/txt这些很好。Pdf这类最好自己转换一下格式再导入知识库。
大语言模型最好选择q4以上的版本,精度损失更小(本文选择的q8)。其次,如果可以还是使用官方满血版,能力肯定更好。如果想官方满血加知识库的情况,只在在Cherry Studio中即可完成,不过需要购买官方API使用哦。
分享自己的学习和安装过程,期望帮助更多初学者以及对大模型应用感兴趣的同学。知识无价人有情,希望我们都能在人生路上开心快乐、共同成长。
更多推荐
所有评论(0)