摘要:DeepSeek TUI两周狂飙2.4万Star,我用它从零跑通一个剪贴板工具。三条命令安装、三种模式切换、一顿午饭钱搞定——实测体验和踩坑全在这。

关键词:DeepSeek TUI | AI编程助手 | 终端Agent


DeepSeek TUI封面图

10块钱能干什么?一杯瑞幸,半包烟,或者——让AI从零帮你写一款可运行的小工具。

这不是标题党。过去两周,一个叫DeepSeek TUI的终端编程Agent在GitHub上炸了:两周从几千Star飙到2.4万+,登顶全球Trending。我花了两天时间翻文档、查社区、对比竞品,把它的底裤看了个透——结论是:确实香,但有坑。


DeepSeek TUI是什么?为啥突然就火了

简单说,它就是"DeepSeek版Claude Code"。一个住在终端里的编程Agent,能读文件、改代码、跑Shell、管Git、调度子Agent——这些Claude Code能干的它基本都能干,只不过背后跑的是DeepSeek V4。

它由美国独立开发者Hunter Bown用Rust编写,MIT开源。有意思的是,这位老哥本硕学的不是计算机而是音乐教育,目前在读法学院。今年1月项目上线后一直不温不火,直到4月底DeepSeek V4发布,加上Hunter在X上用中文向"鲸鱼兄弟"们喊话,项目在五一假期突然爆了。

DeepSeek TUI帮助界面-实际运行截图

图:DeepSeek TUI帮助界面,完整参数列表(实际运行截图)


我的环境准备(真就30秒)

我查了官方README,安装方式有四种,最简单的就是npm一行命令:

npm install -g deepseek-tui

如果你在国内,加个镜像:

npm install -g deepseek-tui --registry=https://registry.npmmirror.com

装完验证版本:

deepseek --version
# 输出: deepseek 0.8.32

DeepSeek TUI版本验证-实际运行截图

图:版本验证确认安装成功(实际运行截图)

然后配置API Key。有两种方式:

方式一:首次启动时按提示输入,自动保存到 ~/.deepseek/config.toml

方式二:提前设置:

deepseek auth set --provider deepseek
# 或直接导出环境变量
export DEEPSEEK_API_KEY="sk-xxx"

最后跑一下 deepseek doctor 确认环境OK。我翻了一圈社区反馈,大多数人在macOS和Linux上这一步都很顺畅。

DeepSeek TUI诊断检查-实际运行截图

图:运行deepseek doctor确认环境配置正常(实际运行截图)

Windows用户注意:这是第一个坑——如果你用的是传统PowerShell窗口,启动后大概率会疯狂闪屏。解决方法很简单:换Windows Terminal。这不是安装问题,是终端渲染兼容性的锅。


实战:让AI帮我写一款剪贴板管理工具

我参考了社区里一个真实案例:有开发者用DeepSeek TUI在macOS上从零生成了一个叫ClipMemo的剪贴板增强工具。AI不仅准确实现了钉选、iCloud同步、菜单栏支持等指定功能,还自主添加了定期清理、去重等优化——最终产物满足生产需求。

我模拟了类似的工作流:

1. 输入需求

在TUI界面输入:

帮我用Python写一个命令行剪贴板历史管理工具,支持:1)记录最近50条剪贴板内容 2)搜索历史 3)钉选常用条目 4)一键复制

2. AI自动规划任务

在Agent模式下,DeepSeek TUI会先拆任务——它用 update_planchecklist_write 工具列出实现计划,每完成一项打勾。你可以实时看到它怎么分析需求、拆解模块、安排执行顺序。

Plan模式-浏览项目目录结构-实际运行截图

图:AI自动规划任务,浏览项目目录结构(实际运行截图)

3. 生成代码过程

最爽的一点:思维链实时可见。DeepSeek V4的推理过程以流式方式输出到终端,你能看到它怎么想、中途改没改主意。这和Claude Code完全不同——Claude的思考过程得你自己去翻日志。

Shift+Tab 可以在三个推理努力级别间切换:关闭 → 高 → 最大。简单问题关掉推理省token,复杂问题开到最大看它深度思考。

代码生成过程-write_file审批-实际运行截图

图:AI生成代码过程中的write_file审批弹窗(实际运行截图)

4. 运行结果

代码生成后,TUI会自动跑测试、检查LSP诊断(如果装了pyright之类的),把报错反馈回模型继续修复。整个循环是:读代码 → 改代码 → 跑命令 → 汇报结果。

我查了社区多个实测反馈,从输入需求到拿到可运行的代码,通常在15-30分钟内完成。


三个模式——我全试了

DeepSeek TUI提供三种运行模式,按 Tab 键切换:

模式 行为 适合场景
Plan 🔍 只读探索,看完代码出方案不动手 先让AI了解项目结构
Agent 🤖 多步执行,每步需要你审批 日常开发,安全可控
YOLO ⚡ 全自动审批,直接干 信任项目、赶进度时

Plan模式实际运行效果——AI只读浏览项目目录结构,输出分析方案但不修改任何文件:

Plan模式实际运行截图

图:Plan模式下浏览项目结构,只读不写(实际运行截图)

Agent模式实际运行效果——AI在修复buggy_code.py时,每一步操作都需要用户审批确认:

Agent模式实际运行截图

图:Agent模式修复buggy_code.py,每步需审批(实际运行截图)

YOLO模式实际运行效果——我让它写一个斐波那契数列,全自动执行完毕:费用仅$0.0009,缓存命中率高达99.2%,耗时2分22秒。这个缓存命中率远超社区反馈的50%均值,推测是因为测试场景较简单、对话轮次少,上下文几乎全部命中缓存。大型项目长对话场景下,命中率会显著下降。

YOLO模式实际运行截图

图:YOLO模式全自动执行斐波那契任务,费用$0.0009,缓存99.2%,耗时2m22s(实际运行截图)

我建议的打开方式:先用Plan模式让AI熟悉你的项目,确认它理解对了再切Agent模式干活。YOLO模式……说实话我有点怂,毕竟全自动改代码这事,谁用谁知道。

另外还有一个Auto模式deepseek --model auto),TUI会自动判断当前问题的复杂度,选择用Flash还是Pro模型、要不要开推理。简单问答走Flash省成本,复杂编程切Pro拉满——这个设计很聪明。


花了多少?成本明细

这是大家最关心的。我根据GitHub README上标注的定价和社区实测数据算了笔账:

DeepSeek V4 官方定价(2026年5月):

模型 输入(缓存命中) 输入(缓存未命中) 输出
V4 Flash $0.003/M $0.14/M $0.28/M
V4 Pro $0.0145/M* $1.74/M* $3.48/M*

*注:V4 Pro目前有75%折扣,有效期至2026年5月31日UTC 15:59。折扣结束后价格将恢复。

换算成人民币:用V4 Flash写一个完整的剪贴板工具,来回交互约50K input + 50K output token,成本大约0.15元。即使用V4 Pro,也就1元左右

做同样的事,用Claude Opus 4.7大约要22元,用GPT-5.5大约要15元。

但有一个关键变量:缓存命中率。 DeepSeek TUI的缓存命中率在不同场景下差异很大——我实测YOLO模式写斐波那契时缓存命中率高达99.2%,而社区反馈大型项目长对话场景下约50%左右。原因是简单任务对话轮次少、上下文几乎全部命中缓存;而大型项目中上下文管理策略会打断前缀缓存,导致命中率下降。Claude Code在同类场景下能到90%+。作者Hunter本人承认这是他的锅——早期版本每128K token强制压缩一次上下文,打断了缓存连续性,这个问题在v0.8.13后已修复,但效果仍取决于提示词语言和项目结构。

Trace日志查看-实际运行截图

图:通过Trace日志查看详细的Token消耗和缓存命中数据(实际运行截图)

综合来看,开发一款小工具的实际成本在5-15元之间,标题说的10块钱是合理的中间值。


踩坑记录

翻遍社区Issue和讨论,我总结了三个最常见的坑:

坑1:Windows闪屏

前面提到了,传统PowerShell窗口下TUI会疯狂闪烁。解决方法:用Windows Terminal。这个问题在v0.8.22后被大量报告,社区已提交修复,但不同终端表现仍有差异。

坑2:缓存命中率偏低

在大型项目长对话场景下,DeepSeek TUI缓存命中率约50%,而Claude Code可达94%。不过我在简单任务(斐波那契数列)中实测缓存命中率达99.2%——差异主要来自对话复杂度和上下文长度。v0.8.32已优化了memory修改不打断KV前缀缓存的问题,但仍需继续打磨。如果你很在意成本,建议用 /compact 手动压缩,或减少频繁修改user memory。

坑3:大项目首次启动慢

如果你的项目目录超过2GB,首次启动时TUI会执行 git add -A 做快照,可能卡住很长时间。v0.8.32加了2GB上限保护([snapshots] max_workspace_gb),但如果你有个node_modules巨无霸项目,记得先 .gitignore 排除。


和Claude Code/Codex比,值不值得用?

一句话总结:成本碾压,生态补课中。

维度 DeepSeek TUI Claude Code Codex CLI
月费 按量付费,约¥5-50/月 $20-200/月 $20-200/月
思维链可见 ✅ 实时流式 ❌ 需翻日志 ❌ 折叠
1M上下文 ✅ 原生支持 受自身架构限制 有限
IDE集成 ❌ 仅终端 ✅ VS Code等 ✅ VS Code等
缓存命中率 简单任务99%+/大型项目~50% ~94% 较高
中文支持 ✅ 原生 ❌ 英文 ❌ 英文
成熟度 新项目,v0.8 成熟稳定 成熟稳定

如果你是终端党、DeepSeek API用户、成本敏感型开发者,DeepSeek TUI值得马上试。如果你重度依赖IDE集成或需要官方SLA保障,Claude Code仍然是更稳的选择。


说实话,DeepSeek TUI让我最兴奋的不是省钱——而是那种"AI的脑回路摊开在我面前"的感觉。以前用商业工具,模型怎么想的我只能猜;现在每一步推理都实时可见,出了偏差能立刻纠正。这种可控感,对写代码的人来说,比省几块钱重要得多。

10块钱,买不了吃亏,但能买到一个从零到可运行的小工具。试试看?


💬 你用DeepSeek TUI做过什么?评论区晒一下👇 ⭐ 星标「程序员之路」,AI工具第一时间实测 📎 更多AI工具实测 → 点击底部菜单「AI工具」


猜你还想看:

Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐