前言

随着大模型技术的迅速发展,越来越多的开发者希望能够在本地部署和使用这些强大的模型。DeepSeek作为一个优秀的大语言模型,能够在各种自然语言处理任务中展现出色的表现。为了帮助大家顺利地在本地环境中部署DeepSeek大模型,本篇文章将详细介绍如何在Windows系统上配置和部署DeepSeek大模型,搭建一个本地环境,并通过Web UI进行交互。本文内容包含了环境配置、模型部署、Web UI配置等多个步骤,确保每一步都能够轻松实现。让我们开始吧!

重要概念解释

  • DeepSeek: 一个开源的大语言模型,由DeepSeek AI团队开发,具有强大的自然语言理解和生成能力。

  • Ollama: 一个轻量级的AI模型运行框架,可以帮助用户在本地便捷地运行和管理各种AI模型。

  • RAG (Retrieval-Augmented Generation): 检索增强生成技术,是一种将外部知识库与大语言模型结合的技术。通过检索相关文档来增强模型的回答能力,使其能够利用最新和专业的知识。

  • Page Assist: 一个浏览器扩展工具,为本地运行的AI模型提供了友好的Web界面,方便用户进行交互。

本文内容包含了环境配置、模型部署、Web UI配置等多个步骤,确保每一步都能够轻松实现。让我们开始吧!
在这里插入图片描述


一、配置Ollama环境

1. 下载并安装Ollama

首先,我们需要下载Ollama,Ollama是一个支持本地运行的AI框架,它可以帮助我们管理和运行各种AI模型。请按照以下步骤操作:

  1. 打开浏览器,搜索“ollama”并进入官方网站🚪
    在这里插入图片描述

  2. 选择Windows版本并下载安装。
    在这里插入图片描述

  3. 安装完成后,在存放安装程序的路径下运行 OllamaSetup.exe /DIR=D:\environment\ollama,该命令将Ollama安装到D盘的指定文件夹中。

OllamaSetup.exe /DIR=你想要安装的ollama安装路径

在这里插入图片描述

2. 配置环境变量

安装完成后,访问网址 http://127.0.0.1:11434,如果页面显示“Ollama is running”,说明Ollama已成功启动。
在这里插入图片描述

接下来,我们需要更改模型的安装路径,按照以下步骤操作:

  1. D:\environment\ollama 目录下新建一个文件夹,命名为 OllamaImagers

  2. 找到 C:\Users\用户名\.ollama 路径下的 models 文件夹,将其剪切到 D:\environment\ollama\OllamaImagers 文件夹中。
    在这里插入图片描述

  3. 配置系统的环境变量。打开“控制面板” > “系统和安全” > “系统” > “高级系统设置” > “环境变量”,新增一个系统变量:

    • 变量名: OLLAMA_MODELS
    • 变量值: D:\environment\ollama\OllamaImagers
      在这里插入图片描述
      注意新增完成后,要一直点击确定,才会保存环境变量
  4. 配置完成后,重启电脑刷新环境变量。


二、部署DeepSeek大模型

1. 安装DeepSeek 8B模型

在配置好Ollama环境后,接下来是部署DeepSeek大模型。通过Ollama的终端,按照以下命令安装DeepSeek 8B模型:

  1. 打开命令提示符或PowerShell,输入以下命令:
ollama run deepseek-r1:8b

在这里插入图片描述

该命令将自动下载并安装DeepSeek 8B模型。安装完成后,终端会显示“success”字样,表示安装成功。

  1. 要查看已安装的模型,可以使用以下命令:
ollama list

如果安装成功,你会看到DeepSeek模型出现在已安装模型的列表中。
在这里插入图片描述

2. 运行DeepSeek模型

安装完成后,我们可以通过Ollama运行DeepSeek模型:

  1. 输入以下命令启动DeepSeek模型:
ollama run deepseek-r1:8b
  1. 运行成功后,你就可以开始与DeepSeek进行交互了。
    在这里插入图片描述

三、Web UI配置

1. 安装Page Assist浏览器扩展

为了方便与模型进行交互,我们可以通过Web UI来操作。在浏览器扩展商店搜索并安装Page Assist 扩展🚪。安装完成后,可以通过浏览器与本地DeepSeek大模型进行交互。
在这里插入图片描述

2. 配置语言为简体中文

在Page Assist的管理界面中,将语言设置为简体中文。这样,你就可以更方便地使用中文与模型进行交流了
在这里插入图片描述

3. 安装本地知识库并投喂RAG

为了使DeepSeek更好地处理特定领域的知识,我们可以将本地知识库投喂给模型。按照以下步骤操作:

  1. 打开终端,输入以下命令下载并安装RAG(Recurrent Attention Generator)模型:
ollama pull nomic-embed-text

安装成功后,终端会显示“success”字样。
在这里插入图片描述

  1. 在RAG的设置界面中,选择中文嵌入模型 nomic-embed-text:latest
    在这里插入图片描述

  2. Page Assist的管理知识库页面中,你可以上传本地知识库文件。
    在这里插入图片描述
    上传后,你可以针对这些上传的知识进行提问,DeepSeek会基于这些知识给出回答
    在这里插入图片描述


总结

通过本文的详细步骤,我们成功地在本地配置并部署了DeepSeek大模型,并通过Web UI进行交互。我们首先配置了Ollama环境,接着安装了DeepSeek大模型,并配置了本地知识库以增强模型的能力。希望本文能够帮助你在本地环境中顺利部署DeepSeek大模型,并发挥其强大的自然语言处理能力。如果你在操作过程中遇到任何问题,欢迎在评论区留言讨论,我会尽力为你解答🌹

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐