🚀 离线运行 AI,免费使用 OpenAI 级别推理模型

本教程将手把手教你如何在本地部署 DeepThink R1 AI 模型,让你无需联网就能运行强大的 AI 推理任务。无论你是AI 新手还是资深开发者,都可以轻松上手!

📌 目录

  1. DeepThink R1 介绍

  2. 安装 Ollama(AI 运行环境)

  3. 下载并安装 DeepThink R1 模型

  4. 在终端运行 DeepThink R1

  5. 使用 Chatbox 浏览器 UI 交互

  6. 创建你的专属 AI 伙伴

  7. 进阶玩法:离线 AI 编程、自动化工具

  8. 常见问题 & 故障排除

1️⃣ DeepThink R1 介绍

DeepThink R1 是一款本地可运行的大语言模型(LLM),在数学推理、代码生成等领域表现强大, 并且可以免费运行在你的电脑上,无需联网。

模型版本 参数量 最低显存需求 最低内存需求
R1-3B 3B 4GB 8GB
R1-7B 7B 8GB 16GB
R1-14B 14B 16GB 32GB

📢 推荐配置

  • 显卡:NVIDIA RTX 3060 及以上(>= 8GB VRAM)

  • CPU:AMD Ryzen 7 / Intel i7 及以上

  • 内存:16GB 及以上

  • 存储:至少 50GB 可用空间

支持系统

  • Windows(推荐使用 WSL2)

  • Mac(Apple Silicon 原生支持)

  • Linux(Ubuntu 20.04+)

2️⃣ 安装 Ollama(AI 运行环境)

Ollama 是一个轻量级的大语言模型管理工具,支持 Windows / Mac / Linux

官网:https://ollama.com/

📥 下载 & 安装 Ollama

  • Windows(需要 WSL2 Ubuntu)

curl -fsSL https://ollama.com/install.sh | sh
  • Mac

brew install ollama
  • Linux

curl -fsSL https://ollama.com/install.sh | sh

安装成功后,输入以下命令查看版本号,确保安装成功:

ollama --version

3️⃣ 下载并安装 DeepThink R1 模型

DeepThink R1 需要手动下载并添加到 Ollama。

📥 下载 DeepThink R1

ollama pull deepthink:r1

官网:https://www.deepseek.com/

这个命令会自动下载模型,下载速度取决于网络情况。

下载完成后,运行以下命令查看所有可用模型:

ollama list

4️⃣ 在终端运行 DeepThink R1

当模型下载完成后,使用以下命令启动:

ollama run deepthink:r1

然后输入任何问题,比如:> 9.9 和 9.11 哪个更大?

DeepThink R1 会直接给出答案,并展示清晰的推理过程

📌 退出模型

/bye

📌 查看本地所有 AI 模型

ollama list

5️⃣ 使用 Chatbox 浏览器 UI 交互

虽然终端可以运行 DeepThink R1,但使用 浏览器 UI 交互 会更方便。

📥 下载 Chatbox

  1. 访问 Chatbox 官网

  2. 下载安装适合你系统的版本(Windows / Mac / Linux)

⚙️ 配置 Chatbox

  1. 打开 Chatbox

  2. 进入“设置”

  3. 选择“模型”

  4. 选择 Ollama

  5. 确保连接到本地 Ollama

  6. 选择 deepthink:r1 并保存

6️⃣ 创建你的专属 AI 伙伴

DeepThink R1 允许你创建一个个性化 AI 助手

📌 创建 AI 角色

  1. 在 Chatbox 进入“我的搭档”

  2. 点击“创建搭档”

  3. 设定 AI 的个性、专长

  4. 保存后,即可使用!

你可以设定:

  • 专业 AI 教授

  • 代码助理

  • 私人顾问

  • 本地离线编程助手

  • 个人知识库 AI

7️⃣ 进阶玩法:离线 AI 编程、自动化工具

DeepThink R1 支持离线 AI 编程、自动化任务,你可以: ✅ 本地 AI 编程本地 AI 助手AI 文档总结离线 GPT 类模型集成到 VSCode、Python 代码

import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={"model": "deepthink:r1", "prompt": "解释鲁迅为什么打周树人"}
)

print(response.json())

8️⃣ 常见问题 & 故障排除

Ollama 命令无法识别? ✅ 重新安装 Ollama:

curl -fsSL https://ollama.com/install.sh | sh

DeepThink R1 下载速度慢? ✅ 直接从 Hugging Face 下载 .gguf 文件并手动加载

Chatbox 无法连接 Ollama? ✅ 运行:

ollama serve

然后在 Chatbox 设置 http://localhost:11434

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐