
小白也能懂的DeepSeek部署教程:从环境配置到Web UI全流程(D盘安装)
随着大模型技术的迅速发展,越来越多的开发者希望能够在本地部署和使用这些强大的模型。DeepSeek作为一个优秀的大语言模型,能够在各种自然语言处理任务中展现出色的表现。为了帮助大家顺利地在本地环境中部署DeepSeek大模型,本篇文章将详细介绍如何在Windows系统上配置和部署DeepSeek大模型,搭建一个本地环境,并通过Web UI进行交互。本文内容包含了环境配置、模型部署、Web UI配置
文章目录
前言
随着大模型技术的迅速发展,越来越多的开发者希望能够在本地部署和使用这些强大的模型。DeepSeek作为一个优秀的大语言模型,能够在各种自然语言处理任务中展现出色的表现。为了帮助大家顺利地在本地环境中部署DeepSeek大模型,本篇文章将详细介绍如何在Windows系统上配置和部署DeepSeek大模型,搭建一个本地环境,并通过Web UI进行交互。本文内容包含了环境配置、模型部署、Web UI配置等多个步骤,确保每一步都能够轻松实现。让我们开始吧!
重要概念解释
-
DeepSeek: 一个开源的大语言模型,由DeepSeek AI团队开发,具有强大的自然语言理解和生成能力。
-
Ollama: 一个轻量级的AI模型运行框架,可以帮助用户在本地便捷地运行和管理各种AI模型。
-
RAG (Retrieval-Augmented Generation): 检索增强生成技术,是一种将外部知识库与大语言模型结合的技术。通过检索相关文档来增强模型的回答能力,使其能够利用最新和专业的知识。
-
Page Assist: 一个浏览器扩展工具,为本地运行的AI模型提供了友好的Web界面,方便用户进行交互。
本文内容包含了环境配置、模型部署、Web UI配置等多个步骤,确保每一步都能够轻松实现。让我们开始吧!
一、配置Ollama环境
1. 下载并安装Ollama
首先,我们需要下载Ollama,Ollama是一个支持本地运行的AI框架,它可以帮助我们管理和运行各种AI模型。请按照以下步骤操作:
-
打开浏览器,搜索“ollama”并进入官方网站🚪
-
选择Windows版本并下载安装。
-
安装完成后,在存放安装程序的路径下运行
OllamaSetup.exe /DIR=D:\environment\ollama
,该命令将Ollama安装到D盘的指定文件夹中。
OllamaSetup.exe /DIR=你想要安装的ollama安装路径
2. 配置环境变量
安装完成后,访问网址 http://127.0.0.1:11434
,如果页面显示“Ollama is running”,说明Ollama已成功启动。
接下来,我们需要更改模型的安装路径,按照以下步骤操作:
-
在
D:\environment\ollama
目录下新建一个文件夹,命名为OllamaImagers
。 -
找到
C:\Users\用户名\.ollama
路径下的models
文件夹,将其剪切到D:\environment\ollama\OllamaImagers
文件夹中。 -
配置系统的环境变量。打开“控制面板” > “系统和安全” > “系统” > “高级系统设置” > “环境变量”,新增一个系统变量:
- 变量名:
OLLAMA_MODELS
- 变量值:
D:\environment\ollama\OllamaImagers
注意新增完成后,要一直点击确定,才会保存环境变量
- 变量名:
-
配置完成后,重启电脑刷新环境变量。
二、部署DeepSeek大模型
1. 安装DeepSeek 8B模型
在配置好Ollama环境后,接下来是部署DeepSeek大模型。通过Ollama的终端,按照以下命令安装DeepSeek 8B模型:
- 打开命令提示符或PowerShell,输入以下命令:
ollama run deepseek-r1:8b
该命令将自动下载并安装DeepSeek 8B模型。安装完成后,终端会显示“success”字样,表示安装成功。
- 要查看已安装的模型,可以使用以下命令:
ollama list
如果安装成功,你会看到DeepSeek模型出现在已安装模型的列表中。
2. 运行DeepSeek模型
安装完成后,我们可以通过Ollama运行DeepSeek模型:
- 输入以下命令启动DeepSeek模型:
ollama run deepseek-r1:8b
- 运行成功后,你就可以开始与DeepSeek进行交互了。
三、Web UI配置
1. 安装Page Assist浏览器扩展
为了方便与模型进行交互,我们可以通过Web UI来操作。在浏览器扩展商店搜索并安装Page Assist 扩展🚪。安装完成后,可以通过浏览器与本地DeepSeek大模型进行交互。
2. 配置语言为简体中文
在Page Assist的管理界面中,将语言设置为简体中文。这样,你就可以更方便地使用中文与模型进行交流了
3. 安装本地知识库并投喂RAG
为了使DeepSeek更好地处理特定领域的知识,我们可以将本地知识库投喂给模型。按照以下步骤操作:
- 打开终端,输入以下命令下载并安装RAG(Recurrent Attention Generator)模型:
ollama pull nomic-embed-text
安装成功后,终端会显示“success”字样。
-
在RAG的设置界面中,选择中文嵌入模型
nomic-embed-text:latest
。 -
在
Page Assist
的管理知识库页面中,你可以上传本地知识库文件。
上传后,你可以针对这些上传的知识进行提问,DeepSeek会基于这些知识给出回答
总结
通过本文的详细步骤,我们成功地在本地配置并部署了DeepSeek大模型,并通过Web UI进行交互。我们首先配置了Ollama环境,接着安装了DeepSeek大模型,并配置了本地知识库以增强模型的能力。希望本文能够帮助你在本地环境中顺利部署DeepSeek大模型,并发挥其强大的自然语言处理能力。如果你在操作过程中遇到任何问题,欢迎在评论区留言讨论,我会尽力为你解答🌹
更多推荐
所有评论(0)