目录

配置流程

第一步:下载Ollama

第二步:下载deepseek模型

第三步:在Chatbox上配置deepseek模型

了解DeepSeek

DeepSeek的R1和V3模型


配置流程

提前了解:

Ollama 是能让用户在本地下载、运行及共享各类大语言模型,保障数据隐私且无需依赖云端服务的工具;

Chatbox 是集成多个大语言模型 API,以统一界面供用户便捷切换模型交互的跨平台开源 AI 聊天客户端。

第一步:下载Ollama

网址:Ollama

根据自己的电脑选择:

第二步:下载deepseek模型

我选择的是1.5b,在终端运行命令:

ollama run deepseek-r1:1.5b

第一次运行该命令会下载 1.5b 的版本,下载完成以后,再执行该命令就无需下载,可以直接运行了。

下载结束后,查看是否已经成功下载:

$ ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    15 hours ago

不同模型名称中的 1.5B、7B、14B 等数字代表模型的参数量,这里的 B 是“Billion”(十亿) 的缩写。参数量的多少直接影响模型的“聪明程度”、计算资源需求和适用场景,也不是说越多越好,因为越多其硬件的资源消耗也会越多,要根据自己电脑的情况来定。

走到这里已经可以使用了,输入上面的命令(ollama run deepseek-r1:1.5b)即可:

但是这样似乎不太美观,为了有一个UI界面让它看起来更好看,我们进行第三步骤。

第三步:在Chatbox上配置deepseek模型

安装Chatbox AI(可视化操作界面):Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

下载结束后,打开Chatbox,此时会让我们进行一个选择:

再一次选择:Ollama API

如果不小心选错了,也没关系,我们点击设置,选择模型提供方Ollama API:

然后选择已经下载好的deepseek-r1模型,这里会自动识别我们已经安装的模型:

然后开启一个新对话就可以聊天了(关闭网络也可以进行聊天):

了解DeepSeek

DeepSeek的R1和V3模型

深度思考是R1模型,如果不选择深度思考则是V3模型:

区别如下:

  1. V3:基本上可以处理绝大多数种类的任务。
  2. R1:顾名思义,通过深度思考搜索的内容更加垂直,R1在需要逻辑推理的任务上更擅长,比如写代码,做数学题。同时R1的成本也会更高。

参考:

博客园:MAC本地化部署DeepSeek模型实战:解决网页提示服务器繁忙的问题 

稀土掘金:国产大模型又出黑马!DeepSeek 初体验,价格屠夫大杀四方

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐