考虑到研究生可能得看很多文献,所以我尝试搭建一个本地知识库。虽然最后因为电脑的运行内存不太够而输出很慢,但相关的操作步骤我都走通了,这可以给广大网友提供一个参考借鉴。最后,博主作为一个机械学生能把这么计算机的东西跑通也是很不容易的,这点还是很激动的。如果有什么可以丰富的细节,也希望大家能多多指出。

以下步骤都是博主亲身一步一步走过的,以及配合博主学习的b站up视频食用更加。

部署学习参考b站原作者视频链接:

1.解决丨Ollama 本地部署 Deepseek 太占C盘?

2.【知识科普】【纯本地化搭建】【不本地也行】DeepSeek + RAGFlow 构建个人知识库

1.安装ollama(官网:ollama.com)

1.1.注意事项:这个软件会固定装C盘,但可以通过特殊方法修改

1.2.环境变量:配置好需要重启电脑,不然可能会失败(未保存)

步骤一:将ollama软件固定到F盘

  • 在官网下载exe文件
  • 在把exe文件拖到F盘
  • 在F盘搞一个APP,APP里面搞一个ollama文件夹
  • 在F盘输入端敲cmd,补充ollamasetup.exe /DIR=+文件夹路径(即ollamasetup.exe /DIR=F:\APP\ollama)【此步就已经固定好】
  • 双击ollama,进行安装就安装好了

注:出问题可以考虑卸载

方法:卸载ollama

①在控制面板处找到ollama点击卸载

②找到跟ollama有关的所有文件夹删除

③全局搜索检查有无残留文件夹,可以辅助管家鉴定一下

步骤二:预设模型安装位置

  • 在APP文件创造一个ollamaimages文件夹用于后面模型存放
  • 更改环境变量用于后续锁定模型:打开环境变量
  • 用户变量新建2个:第一个变量命名:OLLAMA_HOST(值为:0.0.0.0:11434);第二个变量名为:OLLAMA_MODELS(值为:F:\APP\ollamaimagers)
  • 系统变量新建1个:变量命名为:OLLAMA_MODELS(值为:F:\APP\ollamaimagers)
  • 重启电脑

步骤三:下载智能模型

  • 选择deepseek-ri,选择1.5b,选择ollama run deepseek-r1:1.5b旁边的复制
  • Win+r,敲cmd,将复制内容粘贴,点击回车,开始下载
  • 等待下载完毕,出现:seed a message说明成功【本步已经实现本地部署】

2.下载RAGflow源代码和docker

步骤:下载安装

①直接登录RAGflow的github网站下载ZIP压缩包

  • 在APP文件夹创建新文件夹(命名DeepSeek+RAGflow),将ZIP压缩包在这解压
  • 在docker桌面版安装包(win版):夸克网盘分享下载docker
  • 安装docker。安装好后可以win+r,cmd,输入docker验证是否成功

3.通过docker本地部署RAGflow

步骤一:配置

  • F:\APP\DeepSeek+RAGFlow\ragflow-main\docker找到.env,用记事本打开
  • 修改RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.2-slim前面添一个#
  • #RAGFLOW_IMAGE=infiniflow/ragflow:v0.17.2前面#去掉,后保存文件
  • 科学上网,登录docker,在F:\APP\DeepSeek+RAGFlow\ragflow-main\docker点击cmd,敲docker compose -f docker-compose.yml up -d,进行系统配置

步骤二:解决配置中遇到的一些问题

  • 80端口被占用,所以不用80,改为用8080端口:以文本形式打开docker-compose.yml更改13行代码的80:80为8080:80,但是这样就不是用localhost:80打开ragflow,而是用localhost:8080
  • 常规警告的去除,如面对:time="2025-02-11T14:41:50+08:00" level=warning msg="The \"HF_ENDPOINT\" variable is not set. Defaulting to a blank string." time="2025-02-11T14:41:50+08:00" level=warning msg="The \"MACOS\" variable is not set. Defaulting to a blank string.",此时可以在.env文件,用记事本打开,在最后部分回车空一行后复制粘贴以下内容(mac电脑false改成true):

HF_ENDPOINT=https://hf-mirror.com

MACOS=false

  • 内存不够:会显示API配置不对的问题,这个时候需要扩一扩运行内存条

4.部署本地知识库

步骤一:登录创建

  • 谷歌浏览器输入:localhost:8080/login,注册账号,登录
  • English→简体中文
  • 点击右侧头像→模型提供商→ollama
  • 模型类型(chat)→模型名称(在win+r后输入ollama list找到deepseek-r1:1.5b输入)→基础Url(找到本地IPV4地址,用于后续替换,在url栏输入http://IPV4地址:11434→最大token数(88888)→完成

步骤二:系统模型设置

  • 在添加了的模型里面点击添加模型
  • 嵌入模型:选择BAAI/bge-large-zh-v1.5→确定
  • 知识库→创建知识库→命个名→嵌入模型BAAI/bge-large-zh-v1.5
  • 新增文件→本地文件→确定→点击▷解析

步骤三:提问

  • 点击聊天→新建助理→助理名称(命名)→知识库选择→确定
  • 点击助理→新建聊天→提问
  • Ai给出答案

目前感觉部署完比较好的是离线状态也能直接用deepseek了,但本地知识库调用还很难搞(主要是慢或是运行不起来,也可能是1.5b的模型不是很聪明)。所以大家可以后面再尝试更大的模型试一试。以及后续博主打算去尝试学习API调用,如果大家有更好的意见也可以提出和分享。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐