在信息爆炸的时代,如何有效地管理和利用海量的数据,成为了企业和开发者面临的一大挑战。幸运的是,随着AI技术的不断进步,我们可以通过构建智能知识库来帮助解决这一问题。本文将带你一步步了解如何在Windows环境下,使用OllamaRagflowDeepseek-R1搭建自己的自定义知识库。

一、 Ollama:强大的AI聊天平台

Ollama是一个开源的聊天AI平台,它可以帮助开发者将自定义知识库与自然语言处理模型结合,进行交互式查询。Ollama可以支持与多种数据源的集成,非常适合搭建智能知识库。

安装Ollama

1.访问Ollama官网,下载Windows版本的安装包。

下载后点击安装就可以了,但是Ollama的安装程序并没有提供设置安装路径的选项,默认安装路径在C:\Users\<用户名>\AppData\Local\Programs\Ollama, Ollama的程序大概会占4.5G的空间

2.指定ollama程序的安装位置

如果需要指定Ollama安装到其它的位置,参考下面的步骤:先找到

OllamaSetup.exe所在的目录下,然后通过命令

3.指定Ollama的大模型文件存储的位置

Ollama的默认数据存储位置在C:\Users\<用户名>\.ollama\models,而每个大模型的文件都是以G为单位的。如果需要改变大模型文件位置,参考如下操作。

退出Ollama,在Windows的右下角的Ollama图标上点击右键,选择"Quit Ollama"

4.更改大模型文件存放位置

配置环境变量   “变量名”输入“OLLAMA_MODELS”(注意要大写),“变量值”输入“<要保存大模型文件的位置>”(提前创建好相应目录),点击“确定”

5.验证是否成功,可以在“命令提示符”里执行“set”,可以在下面的变量列表里找到刚才的设置

然后重启下电脑

二、 Ragflow:自动化文档处理与知识库构建

Ragflow是一个强大的自动化文档处理工具,能够将各种文档(如PDF、Word、Excel等)转化为结构化的数据,进一步整理成可用于知识库的信息。它能够自动识别文档中的关键内容,创建有效的索引,并将信息结构化存储。

1.从https://github.com/infiniflow/ragflow 克隆仓库

$ git clone https://github.com/infiniflow/ragflow.git

2.找到.env配置文件,将默认为 v0.16.0-slim 版本,即未嵌入模型的 RAGFlow Docker 镜像,改成嵌入模型镜像,具体如下操作方式

3.使用预先构建的 Docker 镜像启动服务器:

$ cd ragflow/docker
$ docker compose -f docker-compose.yml up -d

4.服务器启动并运行后检查服务器状态:

$ docker logs -f ragflow-server

以下输出确认系统启动成功:

三、 Deepseek-R1:智能搜索与检索引擎

安装Deepseek-R1

ollama run deepseek-r1:8b

可以发一条消息来验收是否成功

四、在RAGflow中构建个人知识库并实现基于个人知识库的对话问答

在浏览器中输入http://localhost

模型名称可以通过命令查看

本地部署deepseek  成功

然后就可以在聊天中发消息进行测试了

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐