系列篇章💥

No.文章
01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能
02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南
03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力
04【DeepSeek开发入门】DeepSeek API 开发初体验
05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)
06【DeepSeek开发入门】Function Calling 函数功能应用实战指南
07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手
08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南
09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器
10【DeepSeek部署实战】基于Ollama快速部署DeepSeek-R1系列模型实战指南(Linux)
11【DeepSeek部署实战】基于Ollama+Chatbox零成本部署DeepSeek-R1系列模型攻略(Windows)
12【DeepSeek开发实战】DeepSeek-R1-Distill-Qwen与LangChain的本地大模型应用开发指南


前言

在人工智能领域,DeepSeek 作为国产大模型的第一梯队选手,凭借其卓越的算法优化和高性能表现(支持代码生成、数学推理、多轮对话等场景)持续领跑行业。然而,尽管官方提供了免费的网页版服务,但在实际使用中,用户常常面临三大痛点:网络延迟高(尤其是在代码生成场景中)、隐私数据外泄风险以及高峰期服务器响应缓慢。为了解决这些问题,本文将介绍一种基于 Ollama 和 Chatbox 的黄金组合方案,手把手教您在 Windows 系统上实现零成本本地化部署 DeepSeek-R1 系列模型,让您享受毫秒级响应速度与绝对数据隐私的双重优势。

一、Ollama 部署 DeepSeek 全流程

第一步:Ollama 下载安装

  1. 访问 Ollama 官网下载页面Ollama 下载链接
    在这里插入图片描述

  2. 下载安装包:下载 OllamaSetup.exe 安装程序。

  3. 运行安装程序:右键点击安装包,选择「以管理员身份运行」,并按照提示进行安装。建议将安装路径修改为 D 盘,以避免系统盘空间不足的问题。

  4. 验证安装成功

    • 打开命令提示符(CMD),输入以下命令查看 Ollama 版本号:
      ollama --version
      
      示例输出:0.1.46
    • 输入以下命令查看已安装的模型列表:
      ollama list
      

第二步:DeepSeek 部署运行

1. 模型选型指南

在选择大语言模型时,了解不同版本的参数量、性能特点和硬件需求至关重要。DeepSeek-R1 系列提供了从轻量级到超大规模的多种版本,以满足不同场景的需求。以下是 DeepSeek-R1 各版本的详细对比:

  1. DeepSeek-R1-1.5B

    • 硬件配置:最低 4 核处理器、8GB 内存,无需显卡,适合低资源设备。
    • 适用场景:短文本生成、基础问答系统、移动端或边缘计算设备。
  2. DeepSeek-R1-7B

    • 硬件配置:8 核处理器、16GB 内存,推荐 8GB+ 显存(如 RTX 3070/4060)。
    • 适用场景:文案撰写、表格处理、统计分析、本地开发环境。
  3. DeepSeek-R1-8B

    • 硬件配置:与 7B 相近,略高 10-20%。
    • 适用场景:需更高精度的轻量级任务(如代码生成、逻辑推理)。
  4. DeepSeek-R1-14B

    • 硬件配置:12 核处理器、32GB 内存,16GB+ 显存(如 RTX 4090 或 A5000)。
    • 适用场景:企业级复杂任务、长文本理解与生成。
  5. DeepSeek-R1-32B

    • 硬件配置:16 核处理器、64GB 内存,24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)。
    • 适用场景:高精度专业领域任务、多模态任务预处理。
  6. DeepSeek-R1-70B

    • 硬件配置:32 核处理器、128GB 内存,多卡并行(如 2x A100 80GB 或 4x RTX 4090)。
    • 适用场景:科研机构/大型企业、高复杂度生成任务。
  7. DeepSeek-R1-671B

    • 硬件配置:64 核处理器、512GB 内存,多节点分布式训练(如 8x A100/H100)。
    • 适用场景:国家级/超大规模 AI 研究、通用人工智能(AGI)探索。

2. 模型部署运行

以部署 1.5B 模型为例,打开命令提示符(CMD),输入以下命令:

ollama run deepseek-r1:1.5b

等待模型下载并运行成功后,即可开始与模型进行交互。
在这里插入图片描述

第三步:终端对话验证

1. 第一轮对话测试

>>> 你是谁?
<think>
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手 DeepSeek-R1。如您有任何问题,请随时联系我,我会尽力为您提供详细的帮助。

如果您还想了解其他方面的内容,欢迎随时告诉我您的需求!我将尽力为您解答。

2. 第二轮对话测试

>>> 请帮我写一首现代诗,我是一个四年级小学生
<think>
好的,我是由中国的深度求索(DeepSeek)公司开发的智能助手 DeepSeek-R1。我想写一首现代诗,但我是一个四年级的小学生。虽然我对诗歌有轻微的兴趣,但我需要更简单一些。

首先,我可以回忆一下老师教过我们的诗歌形式,通常是四行一句,押韵或者有一定的节奏感。比如《小牛》、《花儿的红》这样的经典诗句。

接下来,我想要表达的是我的情感和对某个事情的思考。比如,我想写一首关于春天的事情,或者关于我最近的经历。

在写诗的时候,我可以使用比喻和拟人化的手法,让诗歌更有画面感和生动性。例如,把天空比作一个大圆,把花朵比作小精灵一样。

我还想加入一些动态的元素,比如风、鸟鸣、蝴蝶飞舞,这样可以增加诗歌的生动感。

最后,我要确保诗的整体结构流畅,每一句之间有连贯的关系,同时押韵或者有节奏感。这样才能让四年级的小学生觉得有趣又容易理解。

好,我试着写一首这样的诗吧!

[开始构思诗句]

首先,我想表达春天的主题,所以第一句是“春光无限好”。这样能让人联想到美好的时光。

然后,我想加入一些动态的元素,比如鸟鸣和蝴蝶飞舞,“小草摇曳鸡声急”这两句可以表现春天的活力。

接下来,我想描述花朵的颜色和美丽,“红紫欲滴花自放”这样的诗句能让读者感受到花朵的芳香和美丽。

最后,我想表达一种希望和宁静,“风吹雨打心如静”这样一句能让人感到安心和幸福。

现在我来把这些想法整理成一首诗:

春光无限好
小草摇曳鸡声急
红紫欲滴花自放
风吹雨打心如静

嗯,这样的诗句看起来不错,能够传达出春天的美好和宁静的感觉。让我再检查一下,确保每一句都流畅自然。

是的,这样就写好了。

3. 第三轮对话测试

>>> 我有 6 个苹果,吃了 1 个,送给你 2 个,丢了 1 个,还剩几个?
<think>
好的,我现在要解决这个问题:我有 6 个苹果,吃了 1 个,然后送了 2 个给朋友,丢失了 1 个,最后剩下多少个苹果?

首先,我想先理解一下问题中的每一个动作。让我一步一步地分析:

第一步,我开始时有 6 个苹果。

接下来,吃了 1 个苹果。这意味着剩下的苹果数量应该是 6 减去 1,也就是 5 个苹果。

然后,我送了 2 个苹果给朋友。虽然这里可能有两种情况:一种是苹果被送走,因此数量减少;另一种是苹果没有被带走,而是留在自己手里。不过,在这种情况下,通常“送给”意味着苹果被分开了,所以数量会减少。因此,送完之后的剩余苹果数量应该是 5 减去 2,也就是 3 个苹果。

接下来,我丢了 1 个苹果。这意味着在失去苹果之前有 3 个苹果,失去后剩下的数量是 3 减去 1,也就是 2 个苹果。

最后,经过这些动作,我应该剩下 2 个苹果。

让我再检查一下这个过程是否正确:

6 个苹果 - 1 个被吃掉 = 5 个
5 个苹果 - 2 个送出去 = 3 个
3 个苹果 - 1 个丢失 = 2 个

是的,这样计算下来,我最后剩下 2 个苹果。听起来合理。

有没有可能哪里有错误的地方呢?比如,如果“送出去”不是简单的拿走,而是将苹果分成了两部分,那么可能需要重新考虑,但在这个问题中没有提到这种情况。因此,我认为我的计算是正确的。
</think>
我有 6 个苹果。

1. **吃了 1 个**:剩下的苹果数量为 \(6 - 1 = 5\) 个。
2. **送了 2 个给朋友**:剩余的苹果数量变为 \(5 - 2 = 3\) 个。
3. **丢失了 1 个**:最后剩下的苹果数量为 \(3 - 1 = 2\) 个。

因此,我剩下 \(\boxed{2}\) 个苹果。

二、Chatbox 可视化交互配置

第一步:安装 Chatbox

  1. 访问 Chatbox 官网下载页面Chatbox 下载链接
  2. 下载 Windows 客户端:选择 Windows 版本进行下载。
  3. 安装时勾选「创建桌面快捷方式」:方便日后快速启动。
    在这里插入图片描述

第二步:配置 Ollama API

  1. 打开 Chatbox:启动 Chatbox 应用程序。
  2. 进入设置:点击菜单中的「设置」选项。
  3. API 设置
    • 选择「Ollama」服务类型。
    • 填写 API 地址:http://localhost:11434
    • 在模型列表中选择 deepseek-r1:7b-q4_k_m

在这里插入图片描述

第三步:沉浸式对话体验

  1. 第一轮对话:请帮我写一首现代诗,我今年 10 岁。
    在这里插入图片描述

  2. 第二轮对话:我买了 5 个苹果,给了妈妈 1 个,自己吃了 2 个,掉了 1 个,请问还有几个?
    在这里插入图片描述

  3. 第三轮对话:唐代第一个皇帝是谁?
    在这里插入图片描述

体验感受简单的提问和写作任务没有问题,但对于稍微复杂一点的问题,模型的回答可能会出现不准确的情况。

四、总结与展望

通过 Ollama + Chatbox 方案,我们成功在 Windows 系统上实现了 DeepSeek 模型的零门槛本地化部署。这一方案不仅解决了网络延迟和隐私数据外泄的问题,还提供了高效的本地化使用体验。未来,随着模型的不断优化和功能的扩展,我们期待这一方案能够在更多领域发挥更大的作用,为用户提供更加智能和便捷的服务。

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐