实操本地部署deepseek模型(Ollama一键部署)

本地部署deepseek-r1模型,需要使用到的软件有,ollama和chatbox工具
其中ollama是一个开源的LLM(大型语言模型)服务工具,用于运行deepseek模型的引擎
ollama的下载地址:

官方下载地址:https://ollama.com/download
github下载地址:https://github.com/ollama/ollama/releases/download/v0.5.8-rc7/OllamaSetup.exe
官方地址下载较慢可以使用github上的地址
如果还不行,可以用迅雷下载,直接黏贴上方地址到迅雷中下载(速度较快)

chatbox是一个对话式的聊天工具,可连接本地部署的deepseek,让你直接与ai模型“对话”,下载地址:

官方下载地址:https://www.chatboxai.app/zh
github下载地址:https://github.com/Bin-Huang/chatbox/releases
官方地址下载较慢可以使用github上的地址
如果还不行,可以用迅雷下载,直接黏贴上方地址到迅雷中下载(速度较快)

查看当前自己当前的配置适合布置什么多大的deepseek模型
windows打开任务管理器-》性能,可以看到自己的GPU显存、内存容量,还有磁盘剩余存储容量

硬件配置 推荐模型版本 部署方式 量化方案 预期性能
无独立显卡,内存<8GB 1.5B CPU推理 4-bit GPTQ 生成速度 3-5字/秒
RTX 3060 (12GB显存) 7B GPU推理 8-bit 生成速度 15-20字/秒
RTX 3090 (24GB显存) 14B GPU推理 16-bit 生成速度 30+字/秒双
RTX 4090 (48GB显存) 33B 多卡部署 原生精度 接近云端性能

如果遇到是卡在两个版本中间的,可
以试试高版本的并执行量化处理(Ollama 会自动选择合适的量化策略)。

本人电脑参考

内存:16G
GPU显存:8G
剩余磁盘容量:ollama够下载,deepseek模型够下载就行
安装模型:deepseek-r1:7b
运行效果:有点卡,当然还有其他东西在用

事先准备

下载ollama模型,能在官网上访问的,速度较快的,直接访问上述的官网地址,下载windows版本的数据即可
在这里插入图片描述

下载速度太慢的,建议直接通过迅雷下载,下载完成后双击exe,安装ollama,等待安装完成。
安装完成之后会打开power shell 的命令框页面,可以不用关闭,也可以关闭(如果关闭了power shell 命令框,直接用cmd框操作命令也可以),并且右下角会出现小图标如下。
ollama的路径一般放在**\AppData\Local\Programs\Ollama**下(windows),可以右键发送桌面,以方便操作。
在这里插入图片描述


一、安装deepseek模型(我这里安装的是7b的)

deepseek官网查询自己想要下载到本地的模型
在这里插入图片描述
点击自己想要部署的deepseek模型版本
在这里插入图片描述
下拉框可以选择自己想要部署的模型大小,红框内就为ollama运行模型的脚本。

执行命令ollama run deepseek-r1:7b 没有当前大模型的时候会自动下载(展示图在power shell 命令框下执行)
在这里插入图片描述
退出模型,结束对话可通过 /bye 或 ctrl+d (模型还在运行)

想要继续进入对话,再次执行ollama run deepseek-r1:7b

ollama的常用命令 
    查看已下载的模型列表 
    - ollama list 
    删除本地模型 
    - ollama rm <model-name> 
    创建自定义模型 
    - ollama create <custom-model-name> -f <Modelfile> 复制一个已存在的模型 
    - ollama cp <source-model-name> <new-model-name> 
    ...

安装好后模型保存在本地

C:\Users\<用户名>\.ollama\models 路径下(默认在c盘)

如果想修改模型安装路径,如果不想可忽略以下步骤

步骤一、修改配置的安装路径

# Windows(PowerShell界面框)

[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\自定义路径", "User")

安装完成之后,可在,属性-高级属性中看到多加了一条数据
在这里插入图片描述

步骤二、修改监听地址(可不修改,注意网络安全)

修改网络监听,以便其他电脑访问,默认监听127.0.0.1(只能本地访问)

[System.Environment]::SetEnvironmentVariable("OLLAMA\_HOST", "0.0.0.0", "User")
步骤三、数据迁移

把原默认路径下的 C:\Users\<用户名>\.ollama\models 的包

移动到新的路径下

在这里插入图片描述

重启模型,先关闭ollama,再启动,执行命令

ollama stop deepseek-r1:7b

在任务管理器中找到ollama开头的所有服务,结束任务
在这里插入图片描述
找到c盘\AppData\Local\Programs\Ollama,双击ollama.app.exe,等待启动完成,右下角出现图标

打开cmd,重新运行 ollama run ,迁移目录完成
在这里插入图片描述
部署好ollama,安装deepseek模型成功后,可通过ollama通过api调用接口实现对话功能

/generate 接口

在这里插入图片描述

/chat 接口

在这里插入图片描述

基于deepseek模型自定义一个新的模型

-新建文件123.ModelFile(文件地址一般放在ollama下【C:\Users\<用户名>\.ollama\models 路径下(默认在c盘)】,也可以写死绝对地址),文件内容如下

from deepseek-r1:7b
SYSTEM """你深耕法律数年,熟读劳动法,多年为无数打工人要回不合理薪资克扣"""
PARAMETER temperature 0.8
通过命令
ollama create <custom-model-name> -f <Modelfile>
例子:
ollama create modle1 -f 123.ModelFile
ollama run <custion-model-name>
例子:
ollama run modle1

二、连接chatbox

chatbox连接本地的deepseek模型
在这里插入图片描述
输入对话内容
在这里插入图片描述

PS:
网络安全:
本地部署大模型之后,ollama再本地默认启动会一个11434端口的web服务,这个端口没有进行任何的鉴权机制,所以在公网上暴露,存在安全隐患,可在防火墙进行监控。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐