DeepSeek - R1 在人工智能领域引起了不小的轰动。该模型由中国人工智能公司 DeepSeek 开发,常被拿来与 OpenAI 的顶级模型相提并论。围绕 DeepSeek - R1 的兴奋之情,不仅源于其强大的能力,还因为它是开源的,任何人都可以下载并在本地运行。在这篇博客中,我将指导你如何使用 Ollama 在自己的机器上搭建 DeepSeek - R1。
在这里插入图片描述

为什么选择 DeepSeek - R1?

DeepSeek - R1 脱颖而出有几个原因。它不仅比许多其他模型成本更低,而且在解决问题、推理和编码方面表现出色。其内置的思维链推理功能提高了效率,使其成为其他模型的有力竞争者。让我们深入了解如何在本地系统上运行这个模型。

开始使用 Ollama

在这里插入图片描述

在开始之前,我们先来谈谈 Ollama。Ollama 是一款免费的开源工具,用户可以用它在本地运行自然语言处理模型。有了 Ollama,你可以轻松下载并运行 DeepSeek - R1 模型。以下是开始使用的步骤:

步骤:

第一步:安装 Ollama

首先,你需要下载并安装 Ollama。访问 Ollama 官网,下载与你操作系统匹配的版本。
按照网站上提供的安装说明进行操作。

第二步:下载 DeepSeek - R1

在这里插入图片描述

如你访问 Ollama 官网时所见,你可以运行 DeepSeek - R1 的不同参数版本。你可以在ollama.com/library/deepseek - r1 这里找到具体要求(如上图截图所示)。

你可以运行 15 亿、70 亿、80 亿、140 亿、320 亿、700 亿、6710 亿参数的版本,显然,随着你选择的参数增大,硬件要求也会提高。在本教程中,我使用的是 70 亿参数的版本。

Ollama 安装完成后,选择你需要的参数并复制以下命令来下载 DeepSeek - R1 模型:
在这里插入图片描述

ollama run deepseek - r1

这个命令会让 Ollama 下载模型。根据你的网速,这可能需要一些时间。下载过程中不妨喝杯咖啡!

第三步:验证安装

下载完成后,通过运行以下命令验证安装情况:

ollama list

你应该能在可用模型列表中看到 deepseek - r1。如果看到了,那太棒了!你已准备好运行该模型。

第四步:运行 DeepSeek - R1

现在,使用以下命令启动模型:

ollama run deepseek - r1

就这样,你可以在本地与 DeepSeek - R1 进行交互了。就这么简单!

第五步:提出查询

在这里插入图片描述

模型进行思维链推理。
在这里插入图片描述

该模型在编码任务方面表现也不错。我们也来看看这方面的情况。
在这里插入图片描述

上述代码相关查询的详细答案。
在这里插入图片描述

通过本指南,你已成功使用 Ollama 在本地机器上搭建了 DeepSeek - R1。

这种设置为人工智能集成提供了强大的解决方案,在应用程序中提供了隐私保护、速度提升以及控制权。尽情尝试使用 DeepSeek - R1,探索本地人工智能模型的潜力吧。

顺便说一句,为你的人工智能 / 机器学习应用程序配备一个强大的数据库是必不可少的。我推荐使用像 SingleStore 这样的一体化数据平台。

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐