前言

最近,国产大模型越来越火爆,用户越来越多,再不进行实现本地部署,一直依赖网页使用,只会一直等待,或者错峰使用DeepSeek。如何更好的实现本地部署,来看本文章主要内容。

一、安装ollama

访问 Ollama官网 下载该工具,选择符合自己的电脑版本。以下示例windows 11。

下载完进行双击按照,存入C盘,然后进行命令行配置。

1、Win+R 输入cmd

2、输入ollama help

ollama help

二、下载DeepSeek模型

1、打开ollama 输入“deepseek-r1”

2、选择符合的参数

● 1.5B 表示该模型具有 15 亿个参数,适合轻量级任务或资源有限的设备使用。
● 671B 则代表该模型拥有 6710 亿个参数,模型规模和计算能力都极为强大,适合大规模数据处理和高精度任务,但对硬件要求也相应更高。

如何选择?

打开电脑“设备管理器”展开“显示适配器”类别,可以看到已安装的显卡型号。如果需要更详细的信息,可以右键点击显卡名称,选择“属性”查看详细信息;

选择好后,复制右边内容:

ollama run deepseek-r1:1.5b

3、复制到命令行中

4、等待配置

这样的显示就表明成功部署了,就可以进行发信息推理啦!

三、选择可视化工具Chatbox

1、下载,安装打开,选择API Key

 2、配置:在windows

打开环境变量,添加:

OLLAMA_HOST 0.0.0.0

OLLAMA_ORIGINS *

 

 3、重启ollama,返回Chatbox设置界面,重新打开,选择模型为deepseek-r1:1.5b

 4、可以正常使用对话

小结

使用deepseek-r1模型,需要会使用本地部署,避免因服务器崩溃产生的麻烦,带来更顺畅的体验。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐