
实操本地部署deepseek模型(Ollama一键部署)
本地通过ollama一键部署
实操本地部署deepseek模型(Ollama一键部署)
本地部署deepseek-r1模型,需要使用到的软件有,ollama和chatbox工具
其中ollama是一个开源的LLM(大型语言模型)服务工具,用于运行deepseek模型的引擎
ollama的下载地址:
官方下载地址:https://ollama.com/download
github下载地址:https://github.com/ollama/ollama/releases/download/v0.5.8-rc7/OllamaSetup.exe
官方地址下载较慢可以使用github上的地址
如果还不行,可以用迅雷下载,直接黏贴上方地址到迅雷中下载(速度较快)
chatbox是一个对话式的聊天工具,可连接本地部署的deepseek,让你直接与ai模型“对话”,下载地址:
官方下载地址:https://www.chatboxai.app/zh
github下载地址:https://github.com/Bin-Huang/chatbox/releases
官方地址下载较慢可以使用github上的地址
如果还不行,可以用迅雷下载,直接黏贴上方地址到迅雷中下载(速度较快)
查看当前自己当前的配置适合布置什么多大的deepseek模型
windows打开任务管理器-》性能,可以看到自己的GPU显存、内存容量,还有磁盘剩余存储容量
硬件配置 | 推荐模型版本 | 部署方式 | 量化方案 | 预期性能 |
---|---|---|---|---|
无独立显卡,内存<8GB | 1.5B | CPU推理 | 4-bit GPTQ | 生成速度 3-5字/秒 |
RTX 3060 (12GB显存) | 7B | GPU推理 | 8-bit | 生成速度 15-20字/秒 |
RTX 3090 (24GB显存) | 14B | GPU推理 | 16-bit | 生成速度 30+字/秒双 |
RTX 4090 (48GB显存) | 33B | 多卡部署 | 原生精度 | 接近云端性能 |
如果遇到是卡在两个版本中间的,可
以试试高版本的并执行量化处理(Ollama 会自动选择合适的量化策略)。
本人电脑参考
内存:16G
GPU显存:8G
剩余磁盘容量:ollama够下载,deepseek模型够下载就行
安装模型:deepseek-r1:7b
运行效果:有点卡,当然还有其他东西在用
事先准备
下载ollama模型,能在官网上访问的,速度较快的,直接访问上述的官网地址,下载windows版本的数据即可
下载速度太慢的,建议直接通过迅雷下载,下载完成后双击exe,安装ollama,等待安装完成。
安装完成之后会打开power shell 的命令框页面,可以不用关闭,也可以关闭(如果关闭了power shell 命令框,直接用cmd框操作命令也可以),并且右下角会出现小图标如下。
ollama的路径一般放在**\AppData\Local\Programs\Ollama**下(windows),可以右键发送桌面,以方便操作。
一、安装deepseek模型(我这里安装的是7b的)
到deepseek官网查询自己想要下载到本地的模型
点击自己想要部署的deepseek模型版本
下拉框可以选择自己想要部署的模型大小,红框内就为ollama运行模型的脚本。
执行命令ollama run deepseek-r1:7b 没有当前大模型的时候会自动下载(展示图在power shell 命令框下执行)
退出模型,结束对话可通过 /bye 或 ctrl+d (模型还在运行)
想要继续进入对话,再次执行ollama run deepseek-r1:7b
ollama的常用命令
查看已下载的模型列表
- ollama list
删除本地模型
- ollama rm <model-name>
创建自定义模型
- ollama create <custom-model-name> -f <Modelfile> 复制一个已存在的模型
- ollama cp <source-model-name> <new-model-name>
...
安装好后模型保存在本地
C:\Users\<用户名>\.ollama\models 路径下(默认在c盘)
如果想修改模型安装路径,如果不想可忽略以下步骤
步骤一、修改配置的安装路径
# Windows(PowerShell界面框)
[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\自定义路径", "User")
安装完成之后,可在,属性-高级属性中看到多加了一条数据
步骤二、修改监听地址(可不修改,注意网络安全)
修改网络监听,以便其他电脑访问,默认监听127.0.0.1(只能本地访问)
[System.Environment]::SetEnvironmentVariable("OLLAMA\_HOST", "0.0.0.0", "User")
步骤三、数据迁移
把原默认路径下的 C:\Users\<用户名>\.ollama\models 的包
移动到新的路径下
重启模型,先关闭ollama,再启动,执行命令
ollama stop deepseek-r1:7b
在任务管理器中找到ollama开头的所有服务,结束任务
找到c盘\AppData\Local\Programs\Ollama,双击ollama.app.exe,等待启动完成,右下角出现图标
打开cmd,重新运行 ollama run ,迁移目录完成
部署好ollama,安装deepseek模型成功后,可通过ollama通过api调用接口实现对话功能
/generate 接口
/chat 接口
基于deepseek模型自定义一个新的模型
-新建文件123.ModelFile(文件地址一般放在ollama下【C:\Users\<用户名>\.ollama\models 路径下(默认在c盘)】,也可以写死绝对地址),文件内容如下
from deepseek-r1:7b
SYSTEM """你深耕法律数年,熟读劳动法,多年为无数打工人要回不合理薪资克扣"""
PARAMETER temperature 0.8
通过命令
ollama create <custom-model-name> -f <Modelfile>
例子:
ollama create modle1 -f 123.ModelFile
ollama run <custion-model-name>
例子:
ollama run modle1
二、连接chatbox
chatbox连接本地的deepseek模型
输入对话内容
PS:
网络安全:
本地部署大模型之后,ollama再本地默认启动会一个11434端口的web服务,这个端口没有进行任何的鉴权机制,所以在公网上暴露,存在安全隐患,可在防火墙进行监控。
更多推荐
所有评论(0)