"DeepSeek版Claude Code"爆火:DeepSeek-TUI 深度解析
来源: 量子位(微信公众号)
GitHub: https://github.com/Hmbown/DeepSeek-TUI
发布平台: 程序员茄子(chenxutan.com)
标签: DeepSeek, Claude Code, Rust, TUI, 编程助手, AI Agent
引言
"DeepSeek也有自己专属的Coding Agent了。"
2026年五一假期,一个名叫 DeepSeek-TUI 的项目突然在 GitHub 上爆火,星标数骤增至 2.3k,还登上了 GitHub 热榜。
这是一个用 Rust 语言编写的 TUI(终端用户界面)编程工具,像 Claude Code 一样在终端里运行,但专门针对 DeepSeek V4 做了优化适配。
作者 Hunter Bown 自称是"鲸鱼兄弟"(DeepSeek 粉丝的昵称),在美国独立开发。他在项目爆火后发图直言:"这是自己人生中最疯狂的两天。"
今天,我们就来完整拆解这个项目——它是什么、怎么用、和 Claude Code 有什么区别、为什么值得关注。
什么是 DeepSeek-TUI?
DeepSeek-TUI 是一个住在终端里的编程 Agent,可以简单理解为"DeepSeek 版 Claude Code"。
| 项目 | DeepSeek-TUI | Claude Code |
|---|---|---|
| 语言 | Rust | TypeScript/Node.js |
| 模型 | DeepSeek V4 | Claude 3.5/3.7 |
| 界面 | TUI(终端) | CLI + 编辑器插件 |
| 开源协议 | MIT | 闭源 |
| 价格 | DeepSeek 官方定价(便宜) | Anthropic 订阅 |
核心定位
DeepSeek-TUI 不是简单的 API 封装,而是一个完整的 Agent 框架:
- 读写文件:可以读取、编辑项目文件
- 执行 Shell:运行命令、脚本、构建工具
- 搜索网页:获取实时信息
- 管理 Git:提交、分支、合并等操作
- 调度子 Agent:主模型指挥多个子任务并行
- 接入 MCP 服务器:扩展工具能力
- 安装 Skills:类似 Claude Code 的技能包系统
专为 DeepSeek V4 优化的设计
DeepSeek-TUI 最大的特点是:整个工具从设计逻辑到功能细节,都在围绕 DeepSeek 的特性转。
1. 思维链可视化
DeepSeek V4 的一大特色是思维链(Chain of Thought)推理。DeepSeek-TUI 把模型的推理过程直接流式输出到终端——模型怎么分析问题、走了哪条路、中途改没改主意,全部实时可见。
这对调试和信任建立非常有帮助。你能看到 AI 的"思考过程",而不是一个黑盒输出。
2. 100万 Token 上下文窗口
DeepSeek V4 支持 100万 token 的上下文窗口,这是目前市面上最长的上下文之一。DeepSeek-TUI 默认就把这个用满,跑复杂任务从头到尾不用担心记忆断档。
上下文管理策略:
- 上下文快填满时,TUI 会自动对内容进行压缩
- 也可以手动触发
/compact命令 - 压缩策略专门考虑了 DeepSeek 的前缀缓存机制——尽量保住前面稳定的部分,让缓存能继续命中
3. RLM 模式:很 DeepSeek 的思路
这是 DeepSeek-TUI 最有趣的设计之一:RLM(Rust Language Model)模式。
既然 DeepSeek 便宜到可以拿来堆数量,这个工具就把这个特性直接用进来了:
- 在 RLM 模式中,一个主模型指挥最多 16 个 V4 Flash 子任务同时跑
- 用来做批量分析或任务拆解
- Flash 的输出价格大约是 Pro 的三分之一,把不需要强推理的子任务交给它,整体花费能砍不少
这个设计思路很符合 DeepSeek 的定价策略——便宜,就多用;需要强推理的才用贵的模型。
4. 多模型切换
除了 DeepSeek 官方 API,DeepSeek-TUI 还支持:
- NVIDIA NIM 路径
- Fireworks 路径
- 自托管的 SGLang 路径
这让用户可以根据自己的需求选择不同的部署方式。
三种操作模式
DeepSeek-TUI 提供了三种操作模式,适应不同的使用场景:
1. Plan 模式(只读探索)
特点:先给你出个方案再说
在这个模式下,Agent 只会读取和分析代码,不会执行任何修改操作。适合:
- 理解现有项目结构
- 分析代码质量
- 生成重构建议
- 做技术方案设计
2. Agent 模式(默认档)
特点:每步工具调用都要你点头
这是默认模式,每次执行操作前都会询问用户确认。适合:
- 日常开发工作
- 需要人工把控关键操作
- 不熟悉项目时逐步推进
3. YOLO 模式(全自动)
特点:全自动放行,不想被打断就开它
顾名思义,这个模式下 Agent 会一路执行到底,不会中途停下来问你。适合:
- 批量处理任务
- 自动化脚本执行
- 你对 Agent 信任度很高时
会话管理
- 会话保存/恢复:工作可以分段进行
- 独立 Git 快照:按轮次回滚,不动原仓库
- 翻车了也不慌:有快照兜底
安装与使用
一键安装
DeepSeek-TUI 提供了多种安装方式,最简单的是:
npm install -g deepseek-tui
预编译二进制
项目为 Linux、macOS、Windows 都提供了预编译二进制,也可以直接从 GitHub Releases 下载。
国内用户特别优化
作者 Hunter Bown 还特意给国内用户准备了:
- 中文版 README 文档
- 专门配置路径
- 支持 TUNA Cargo 镜像(Rust 包管理镜像)
- Release 包托管到阿里云 OSS 或腾讯云 COS
这些细节体现了作者对国内用户的重视。
快速开始
# 安装完后,运行
deepseek-tui
# 首次运行会引导你配置 API Key
# 然后就可以开始对话了
# 基本命令
/plan # 切换到 Plan 模式
/agent # 切换到 Agent 模式(默认)
/yolo # 切换到 YOLO 模式
/compact # 手动压缩上下文
/help # 查看所有命令
项目迭代历程
DeepSeek-TUI 项目于 2026年1月19日建仓,到现在不到4个月,已经迭代到 v0.8.8,发布了 37个版本。
早期版本(v0.1.x - v0.6.x)
主要搭骨架:
- 工具调用基础能力
- Session 管理
- 基础的 Git 快照
- 把 Agent 跑起来是第一优先级
v0.7.x 阶段
往细节上打磨:
- v0.7.6:多语言界面支持(中文、英文等)
- TUI 提示本地化
- 帮助文本翻译
- 状态栏汉化(为国内用户做适配)
v0.8.x 阶段(当前)
重心在稳定性和体验打磨:
- v0.8.2:修了长会话里文件句柄泄漏的问题
- v0.8.6/v0.8.7:加了一批交互功能
- 限流或服务器报错时显示倒计时重试横幅
- 输入历史搜索
- 运行中消息队列可视化
- v0.8.8:收口版本,补上了 Linux ARM64 预编译二进制
从这个迭代路径可以看出:功能更新密集,但每个版本都有明确的问题要解决。这说明作者在认真维护,而不是盲目堆功能。
作者:从乐队指挥到 AI 研究者
Hunter Bown 的故事很有意思,是典型的"跨界人生"。
音乐之路
- 在北得克萨斯州大学修读音乐教育
- 毕业后继续深造,取得南方卫理公会大学音乐教育硕士
- 硕士毕业后当了 3年乐队指挥
- 后来还拿了得克萨斯大学达拉斯分校的 MBA
- 之后回到母校 SMU,进入法学院专攻专利法
半路出家程序员
"码代码这件事,就更像是几条线最终汇到了一起。"
他在学声乐科学时接触到一个概念叫**"缺失基音"(missing fundamental)**——人耳可以从泛音里重建出一个物理上并不存在的音高。
他后来发现这和信息论直接对应:你不需要把所有信息都显式给出,系统本身也会补全。
这个从音乐里来的直觉,成了他理解 AI 系统的一把钥匙。
Shannon Labs 创始人
去年,他创立了 Shannon Labs,定位是"AGI 时代的下一个贝尔实验室"。
DeepSeek-TUI 在他这里只是众多研究项目之一。他的 GitHub 上有 65 个公开仓库,包括:
- NeMoCode:面向 NVIDIA Nemotron 的同款终端 Agent
- MLX kernel 工具包:机器学习内核工具
- Hegelion:辩证推理引擎(正题→反题→合题循环逻辑)
- Aleph:MCP 服务器,主打零 token 成本的大容量上下文
- Heliosinger:把太阳风数据实时转化成声音(从 AI 到太空声学的跨界)
家族传承
他的曾祖父 Ralph Bown Sr. 是贝尔实验室的研究副总裁、无线电先驱,业余时间喜欢自制蜡筒、跑去卡内基音乐厅录音。
Hunter 在专利法课堂上意识到,自己正在走一条和这位先祖交汇的路——把音乐人的感知方式带进技术研究,去发现那些"因为没有这种背景的研究者而被忽视的想法"。
他在个人网站上写道:"他是科学家,爱音乐;我是音乐家,爱科学。"
技术架构分析
为什么用 Rust?
Rust 的选择很有意思:
- 性能:接近 C/C++,但内存安全
- 并发:无畏并发(fearless concurrency)
- 生态:crates.io 上有丰富的库支持
- 跨平台:编译一次,多平台运行
对于一个需要和终端、文件系统、网络频繁交互的工具来说,Rust 是个很好的选择。
MCP 服务器支持
DeepSeek-TUI 支持接入 MCP(Model Context Protocol)服务器,这意味着:
- 可以扩展工具能力
- 接入第三方服务
- 复用已有的 MCP 生态
这是和 Claude Code 对齐的一个设计。
Skills 系统
和 Claude Code 类似,DeepSeek-TUI 也支持安装 Skills(技能包)。这让它不仅仅是一个编程工具,还可以:
- 学习特定领域的知识
- 执行特定类型的任务
- 定制化工作流程
与 Claude Code 的详细对比
| 维度 | DeepSeek-TUI | Claude Code |
|---|---|---|
| 语言 | Rust | TypeScript |
| 模型 | DeepSeek V4 | Claude 3.5/3.7 |
| 上下文 | 100万 token | 约20万 token |
| 开源 | ✅ MIT | ❌ 闭源 |
| 价格 | 便宜(约Claude的1/10) | 较贵(需订阅) |
| 思维链 | ✅ 可视化 | ✅ 部分可见 |
| 子Agent | ✅ 最多16个 | ✅ 支持 |
| MCP支持 | ✅ | ✅ |
| Skills | ✅ | ✅ |
| 多语言UI | ✅ 中文/英文等 | 主要是英文 |
| 国内优化 | ✅ TUNA镜像/国内CDN | ❌ |
| Git快照 | ✅ 按轮次回滚 | ✅ |
| 操作模式 | 3种(Plan/Agent/YOLO) | 主要是交互式 |
选哪个?
选 DeepSeek-TUI 如果你:
- 想要一个便宜的编程 Agent
- 需要处理超长上下文(100万 token)
- 希望开源、可定制
- 在国内网络环境下使用
选 Claude Code 如果你:
- 已经订阅了 Claude Pro/Team
- 信任 Anthropic 的模型能力
- 需要更成熟的生态和工具集成
使用注意事项
1. 子 Agent 开多了,缓存命中率难保证
要知道,未命中的 token 价格是命中的 10 倍!项目界面上有逐轮费用显示,跑长会话建议留意一下,别跑完账单吓一跳。
2. RLM 模式的适用场景
RLM 模式适合:
- 批量代码分析
- 多文件并行处理
- 任务可以拆解、子任务不需要强推理
不适合:
- 需要深度推理的复杂问题
- 上下文依赖性强、不能拆分的任务
3. 国内用户建议
- 使用 TUNA Cargo 镜像加速 Rust 包下载
- Release 包可以选择阿里云 OSS 或腾讯云 COS 源
- 配置中文界面,降低使用门槛
One More Thing:AI 辅助编程的闭环
在 DeepSeek-TUI 的贡献者列表中,还有一些有趣的发现:
- Claude 提交了 150+ commits
- 还有 Gemini、Qwen 等 AI 模型的身影
- 当然也有真人贡献者提交了一些 commits
这形成了一个有趣的闭环:
半路出家的程序员,用 AI 辅助编程,给 AI 写辅助编程框架。
这个工作流也代表了未来编程的一种可能方向——人类负责架构设计和创意,AI 负责实现和优化,工具让这个过程更顺畅。
小结
DeepSeek-TUI 是一个值得关注的项目,它的价值在于:
- 开源免费:MIT 协议,代码完全开放
- 专为 DeepSeek 优化:充分发挥 V4 的特性(长上下文、便宜、思维链)
- Rust 实现:性能好、内存安全
- RLM 多 Agent 模式:很具创意的设计,利用 DeepSeek 的低价优势
- 国内友好:中文界面、国内镜像、国内 CDN
- 快速迭代:4个月37个版本,作者很认真
如果你想尝试一个便宜、开源、专为 DeepSeek 设计的编程 Agent,DeepSeek-TUI 是个很好的选择。
GitHub 地址: https://github.com/Hmbown/DeepSeek-TUI
作者: Hunter Bown / Shannon Labs
当前版本: v0.8.8
开源协议: MIT
Star 数: 2.3k+(持续上涨中)
本文首发于「程序员茄子」博客,原文链接:https://chenxutan.com