你有没有想过,一个 AI 编程工具,如果从底层就专门为某个模型设计,体验会差多少?今天我体验了一下 DeepSeek-TUI,答案出乎意料。

这是什么东西?

简单来说:DeepSeek-TUI 是一个跑在终端里的 AI 编程 Agent,专为 DeepSeek V4 设计。

它能读写文件、执行 shell 命令、搜索网页、管理 git,还能协调多个子 Agent 并发工作。

全部通过一个键盘驱动的 TUI 界面完成,类似于终端AI Agent 【Claude Code】。

项目在 2026 年 1 月上线,目前 GitHub 11,499 Stars,70 个版本迭代,最新版是 v0.8.14。用 Rust 写的,启动极快,没有 Node.js 或 Python 运行时依赖。


安装,3 秒搞定

四种安装方式随意选:

# npm(最省事)
npm install -g deepseek-tui

# Cargo(不用 Node)
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked

# macOS Homebrew
brew tap Hmbown/deepseek-tui && brew install deepseek-tui

# Windows Scoop
scoop install deepseek-tui

国内网速慢?npm 加镜像:--registry=https://registry.npmmirror.com,或用清华的 Cargo 镜像。

装完之后:

deepseek --version
deepseek auth set --provider deepseek  # 输入 API Key
deepseek doctor  # 验证环境
deepseek  # 启动

第一次启动会引导你配置 API Key,保存在 ~/.deepseek/config.toml,之后任何目录都能直接用。


核心功能拆解

🧠 Auto 模式:让 AI 决定用哪个模型

这是我觉得最聪明的设计之一。

deepseek --model auto "帮我重构这个函数"

执行前,工具会先用 deepseek-v4-flash 做一次轻量路由判断:这个问题需要用 Pro 还是 Flash?需要开启深度思考吗?

然后再用选出来的模型+思考级别真正处理请求。

简单问题用 Flash + 关闭思考(省钱),复杂的架构设计或 debug 就上 Pro + Max 思考。成本和效果都帮你平衡好了。

用 Shift+Tab 可以手动在 off → high → max 三档思考强度之间切换。

📂 三种工作模式

模式

行为

Plan

 🔍

只读探索,模型先制定计划再提交执行

Agent

 🤖

默认交互模式,每次工具调用需要你审批

YOLO

 ⚡

自动批准所有工具调用,适合信任的工作区

Tab 键在三种模式之间循环切换。

YOLO 模式说人话就是:你说完需求,它自己跑,不问你。对于跑批量处理或者你完全信任它的改动时,非常爽。

💡 思考过程可视化

DeepSeek V4 的 Reasoning 特性(流式输出思考过程)在 TUI 里有专门的视觉区分显示。

你能实时看到模型"在想什么",不只是等结果出来。

对于复杂 debug 场景,这个很有价值。

🔄 会话保存 & 工作区回滚

deepseek sessions          # 列出所有会话
deepseek resume --last     # 恢复上次的会话
deepseek fork <SESSION_ID> # 从某个节点分叉

还有一个 工作区快照回滚:工具在每次 turn 前后自动做 git snapshot(用的是独立的 side-git,不影响你的 .git),用 /restore 或 revert_turn 一键还原。

改坏了?一行命令回退,不慌。

💸 实时费用追踪

每次对话都有 token 用量和成本估算,还有缓存命中/未命中的明细。

当前 DeepSeek V4 Pro 有 75% 折扣(到 2026 年 5 月 31 日),折后价格:

模型

缓存命中

缓存未命中

输出

V4 Pro

$0.003625/1M

$0.435/1M

$0.87/1M

V4 Flash

$0.0028/1M

$0.14/1M

$0.28/1M

相比其他模型,DeepSeek 的价格已经很有竞争力了,加上 1M 大上下文,长代码库的分析场景非常适合。

🔌 MCP 协议支持

deepseek mcp list      # 查看已配置的 MCP 服务
deepseek mcp validate  # 验证连接

支持标准 MCP 协议,可以接入各种外部工具服务。

🧩 Skills 系统

和 Claude Code 类似,也有 Skills 机制——每个 Skill 是一个 .md 文件,描述特定工作流指令:

/skills        # 列出所有 skill
/skill install github:<用户>/<仓库>  # 从 GitHub 安装社区 skill

从工作区的 .agents/skillsskills.claude/skills 以及全局 ~/.deepseek/skills 中自动发现。

🖥️ LSP 诊断集成

每次编辑后,工具会调用相关语言的 LSP(rust-analyzer、pyright、typescript-language-server、gopls、clangd),把诊断信息注入上下文,模型下一步就能看到你刚才改的代码有没有类型错误。


和 Claude Code 的区别是什么?

这个问题很多人会有,毕竟 Claude Code 也是终端里跑的 AI 编程工具,Claude Code 还可以通过配置接入 DeepSeek API

所以它们是竞品吗?说是,也说不是。让我捋一下:

先说 Claude Code 能用 DeepSeek 这件事

Claude Code 支持自定义 API endpoint,通过环境变量可以把底层模型替换成 DeepSeek:

# 在你Claude code 的 settings.json 文件中替换成DeepSeek对应的API、key、model
"ANTHROPIC_BASE_URL""https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN""your_deepseek_key",
"ANTHROPIC_MODEL""deepseek-v4-pro[1m]",
"ANTHROPIC_DEFAULT_HAIKU_MODEL""deepseek-v4-flash",
 "ANTHROPIC_DEFAULT_SONNET_MODEL""deepseek-v4-pro[1m]",
 "ANTHROPIC_DEFAULT_OPUS_MODEL""deepseek-v4-pro[1m]",
"ANTHROPIC_REASONING_MODEL""deepseek-v4-pro[1m]"
claude  # 启动 Claude Code,实际调用 DeepSeek

👉小技巧:模型后面必须要加[1m],这样1M的上下文窗口才能生效,否则会默认采用 Claude 原始[200k]上下文窗口大小。

这让一些人觉得:"既然 Claude Code 能用 DeepSeek,为啥还要 DeepSeek-TUI?"

答案是:工具可以调用同一个 API,但能用好是两回事。

核心定位不同

维度

Claude Code

DeepSeek-TUI

原生支持的模型

Claude (Opus/Sonnet/Haiku)

DeepSeek V4 (Pro/Flash)

Reasoning 支持

通过 extended thinking 参数

原生流式展示 Thinking Blocks

上下文窗口

取决于 Claude 模型(200K)

原生支持 DeepSeek 1M token

价格感知

无内置成本估算

实时费用追踪 + 缓存命中明细

Auto 模式

内置路由判断,自动选模型+思考档位

运行时

Node.js

Rust 二进制,无依赖

工作区回滚

无内置快照

side-git 每轮快照,/restore 一键回滚

项目感知

CLAUDE.md 深度集成

.deepseek/config.toml

 项目覆盖

IDE 集成

VS Code、JetBrains 插件

Zed(ACP 协议)

多模型路由

不支持

NVIDIA NIM、Fireworks、SGLang、vLLM

Claude Code 的优势在哪里

1. 与 Claude 模型的深度原生适配

Claude Code 是 Anthropic 官方出品,和 Claude 模型的 extended thinking、tool use 格式、CLAUDE.md 上下文注入等机制是协同设计的。如果你主要用 Claude,体验上有天然的完整性。

2. 生态更成熟

Hooks 系统(pre/post 工具调用钩子)、VS Code/JetBrains IDE 插件、CLAUDE.md 全局/项目配置层级。这套生态对工程化使用场景支持更完善。

3. 不需要额外账号

Claude Code 一个账号/API Key 搞定,DeepSeek-TUI 需要单独申请 DeepSeek API Key(虽然很容易)。

DeepSeek-TUI 的优势在哪里

1. 对 DeepSeek V4 特性的原生支持

DeepSeek V4 的 Reasoning 流式输出(Thinking Blocks)、1M token 上下文、Prefix Cache 的缓存命中追踪。这些特性如果通过兼容层使用,效果会打折扣。DeepSeek-TUI 是为这些特性量身打造的。

你在 Claude Code 里通过 custom endpoint 接 DeepSeek,拿到的是"能用";在 DeepSeek-TUI 里,拿到的是"用好了"。

2. Auto 模式的智能路由

Claude Code 没有自动根据任务复杂度选模型的功能。DeepSeek-TUI 的 auto 模式能根据每个 turn 的内容决定用 Flash 还是 Pro、要不要开深度思考,等于帮你做了一层 cost/quality 的权衡

3. 极低的运行时负担

Rust 二进制,单文件,没有 Node 或 Python 依赖,内存占用低,启动快。对于服务器环境或资源受限场景更友好。

4. 价格优势更透明

DeepSeek 本来就比 Claude 便宜,加上实时的 cache hit/miss 费用追踪,你能精确看到每次对话花了多少钱、省了多少。

怎么选?

选 Claude Code 如果:

  • 你的主力模型是 Claude,不想切换

  • 需要 IDE 插件深度集成(VS Code/JetBrains)

  • 工程化使用场景多,需要 Hooks 等进阶功能

  • 已有 Anthropic 订阅,不想再申请新 API Key

选 DeepSeek-TUI 如果:

  • 你主用 DeepSeek V4,想充分利用其 Reasoning 和 1M 上下文

  • 在意成本,需要精细的费用感知和 Auto 模式优化

  • 需要工作区快照回滚(改坏代码一键恢复)

  • 在资源受限环境(服务器、轻量 Linux)部署 AI Agent

当然,也可以两个都用。 工具不互斥。复杂架构分析用 DeepSeek-TUI 的 1M 上下文跑,日常写代码用 Claude Code 配 IDE 插件——看场景选最顺手的。


键盘快捷键速查

按键

功能

Tab

切换模式 / 补全 /@ / 队列跟进

Shift+Tab

切换思考强度:off → high → max

F1

帮助 overlay

Ctrl+K

命令面板

Ctrl+R

恢复历史会话

Ctrl+S

暂存草稿

@path

在输入框附加文件/目录上下文

Alt+R

搜索 Prompt 历史


自定义 Skill:把工作流打包复用

DeepSeek-TUI 的 Skill 机制和 Claude Code Skills 很像,本质是用 Markdown 描述一套指令集:

~/.deepseek/skills/my-code-review/
└── SKILL.md
---
name: my-code-review
description: 执行标准化的 Code Review,重点检查安全性和性能问题。
---

# Code Review Checklist

每次 review 前先看:
1. 有没有 SQL 注入风险
2. 有没有未处理的异常路径
3. 关键路径有没有日志
...

然后:

/skill install github:某用户/某仓库  # 安装社区 skill
/skill my-code-review               # 激活

模型会自动识别任务上下文,在合适的时候触发对应的 skill。


当前阶段值不值得用?

项目还在快速迭代,v0.8.14 是今天刚发的,Open Issues 有 108 个。说明活跃,也说明有坑。

坑点记录一下:

  • 长会话不自动压缩(v0.6.6 后默认关闭了 auto-compaction),跑久了 context 会膨胀,需要手动 /compact

  • Token/成本估算在部分场景下可能偏高(reasoning token 计费逻辑的已知 bug)

  • Windows 上个别 UI 交互细节 v0.8.14 才修复

但整体体验来说:如果你是 DeepSeek 用户,这是目前最完整的终端 Agent 实现。


总结

DeepSeek-TUI 不是"又一个 AI 编程工具"。它是专门为 DeepSeek V4 的核心优势(Reasoning、1M 上下文、低价格)而设计的终端 Agent,在这个赛道上,没有比它更契合的选项。

如果你还在把 DeepSeek 当作一个"便宜点的 Claude"来用,DeepSeek-TUI 可能会改变你的想法。


项目地址:https://github.com/Hmbown/DeepSeek-TUI

我是顾北,关注我,获取更多好玩有趣的AI工具!

谢谢你阅读我的文章~

我们下期再见!

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐