1.主机配置

显卡:4070d,12G显存
内存:32G
CPU:i5-12600kf

此时部署deepseek r1,14b的模型,GPU利用率可以达到94%,并且几乎无延迟。

2.下载安装

1.安装ollama

ollama官方网址:ollama官网
在这里插入图片描述
由于ollama默认安装地址为C盘,对于我这种强迫症患者很不友好,因此使用命令行安装:
在这里插入图片描述
使用命令行参数安装后,还需要修改模型安装的环境变量,否则模型也会默认被安装到C盘,在系统环境变量中添加指定模型安装的位置。
在这里插入图片描述

安装成功的标志为在终端执行ollama -v可以显示版本号。
在这里插入图片描述

2.安装模型

安装模型也是一键式安装,还是在ollama官网:
deepseek r1模型地址:deepseek r1
注意要按自己电脑的显存选择模型,12G显存推荐14b,32b的GPU利用率会很低(显存会被打满,并且内存会占10G左右),并且非常卡顿。如果有20G的4090推荐使用32b的
ps:b表示模型参数规模,b为billion的首字母,参数越多,模型效果越好。
在这里插入图片描述
安装成功界面:
在这里插入图片描述

3.使用界面

3.1 终端使用

其实直接在终端输入就可以了,可以看到,啪的一下,很快啊,就写完了。
在这里插入图片描述

3.2 cherryai(客户端使用)

cherry是一个开源的与大模型相关的客户端,可以调ollama的api。
cherryai官网:cherryai
安装后打开,点击设置->Ollama->管理,选择本地的deepseek-r1,添加即可完成。
在这里插入图片描述
这样就可以在客户端使用deepseek r1了。生成速度也非常的快。
在这里插入图片描述
并且可以看到,当在使用模型时,GPU利用率已经达到了94%,非常的完美。
在这里插入图片描述

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐