GitHub 3.5K Star!DeepSeek TUI:终端中的深度思考编码智能体
来源: 微信公众号
GitHub: https://github.com/Hmbown/DeepSeek-TUI
发布平台: 程序员茄子(chenxutan.com)
标签: AI编程, DeepSeek, TUI, 终端工具, 编码智能体, Claude Code平替
引言
这两天,在 GitHub 上发现了一个让人眼前一亮的项目——DeepSeek TUI。开源两天斩获 3.5K Star。
它把 DeepSeek 最新的 V4 模型直接搬进了终端,做成了一个完整的编码智能体。
现在的 AI 编码助手越来越多,但大多数都是通过网页或者 IDE 插件来使用的。这个项目反其道而行之,完全扎根在终端里,给开发者一种原生的、沉浸式的体验。
更重要的是,它不仅仅是一个聊天工具,而是一个真正能"动手"的智能体。
你可以直接让它读写项目文件、执行 Shell 命令、搜索网页、管理 Git,甚至还能看到模型的思考过程实时展开。
这种把强大的 AI 能力和开发者最熟悉的终端环境结合在一起的方式,确实很有吸引力。
一、项目简介
DeepSeek TUI 是一个完全在终端中运行的编码智能体。
它给 DeepSeek 的前沿模型提供了直接访问你的工作区的能力:
- 读取和编辑文件
- 运行 Shell 命令
- 搜索网页
- 管理 Git
- 编排子智能体
所有这一切都通过一个快速、键盘驱动的 TUI(文本用户界面)来完成。
核心技术
| 特性 | 说明 |
|---|---|
| 模型 | DeepSeek V4 (pro/flash) |
| 上下文 | 1M Token |
| 思考模式 | 原生思维链流式输出 |
二、核心亮点深度解析
1. 原生 RLM 并行推理
DeepSeek TUI 内置了原生的 RLM(rlm_query 工具)支持,可以同时启动 1-16 个廉价的 deepseek-v4-flash 子智能体并行工作。
用途
| 场景 | 说明 |
|---|---|
| 批量分析 | 同时分析多个文件 |
| 任务分解 | 并行处理子任务 |
| 复杂推理 | 多角度并行思考 |
示意图
主智能体
├── 子智能体1 → 分析代码块A
├── 子智能体2 → 分析代码块B
├── 子智能体3 → 搜索相关文档
└── 子智能体4 → 检查潜在问题
2. 思考模式实时展示
这个项目最吸引人的特性之一就是思考模式的流式展示。
你可以看到 DeepSeek 的**思维链(chain-of-thought)**在实时展开,看着它如何:
- 一步一步推理你的代码
- 分析问题
- 规划解决方案
这种透明性让 AI 的决策过程变得可理解、可追踪。
3. 完整的工具套件
DeepSeek TUI 提供了一套完整的工具:
| 工具类型 | 功能 |
|---|---|
| 文件操作 | 读取、编辑、创建、删除 |
| Shell 执行 | 运行命令行命令 |
| Git 管理 | commit、push、pull、branch |
| 网页搜索/浏览 | 搜索和抓取网页 |
| 应用补丁 | 智能补丁应用 |
| 子智能体 | 并行推理编排 |
| MCP 服务器 | 外部工具集成 |
这些工具不是摆设,而是真正能让 AI 动手去做事的利器。
4. 1M Token 超长上下文
支持 DeepSeek V4 的 1M Token 上下文窗口,当上下文填满时还能自动进行智能压缩。
这意味着:
- 可以一次性分析整个代码库
- 长对话不会丢失上下文
- 复杂项目的全局理解成为可能
5. 三种工作模式
项目提供了三种交互模式,满足不同场景的需求:
| 模式 | 说明 | 适用场景 |
|---|---|---|
| Plan 模式 | 只读探索,模型先探索和���出分解计划再进行修改 | 安全探索式开发 |
| Agent 模式 | 默认的交互模式,多步工具使用带有审批门槛 | 日常开发 |
| YOLO 模式 | 在受信任的工作区中自动批准所有工具 | 自动化处理 |
6. 会话保存与工作区回滚
| 功能 | 说明 |
|---|---|
| 会话保存 | 长时间任务中支持检查点保存和恢复 |
| 工作区回滚 | 通过 side-git 在每轮操作前后进行快照 |
回滚命令
/restore # 回滚到某个检查点
revert_turn # 撤销上一轮操作
不会影响你仓库的 .git,放心让 AI 去尝试!
7. 多语言 UI 支持
DeepSeek TUI 支持多语言 UI!
通过 settings.toml 中的 locale 设置,可以控制界面的显示语言:
| 语言 | 设置值 |
|---|---|
| 简体中文 | zh_CN |
| 日语 | ja_JP |
| 葡萄牙语(巴西) | pt_BR |
不会改变模型输出的语言,只改变界面语言。
三、安装与配置
安装方式
方式一:npm 安装(最简单)
npm install -g deepseek-tui
deepseek
方式二:Cargo 安装
# 配置镜像(如果在中国内地访问慢)
# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"
[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"
# 安装
cargo install deepseek-tui-cli --locked
方式三:下载预编译二进制
直接从 GitHub Releases 页面下载。
方式四:从源码安装
git clone https://github.com/Hmbown/DeepSeek-TUI.git
cd DeepSeek-TUI
cargo install --path crates/tui --locked
配置 API 密钥
# 通过 CLI
deepseek login --api-key "YOUR_DEEPSEEK_API_KEY"
# 通过环境变量
export DEEPSEEK_API_KEY="YOUR_DEEPSEEK_API_KEY"
deepseek
四、命令行功能
| 命令 | 功能 |
|---|---|
deepseek | 启动交互式 TUI |
deepseek "explain this function" | 一次性提示 |
deepseek --model deepseek-v4-flash "summarize" | 模型覆盖 |
deepseek --yolo | YOLO 模式 |
deepseek login --api-key "..." | 保存 API 密钥 |
deepseek doctor | 检查设置和连接性 |
deepseek setup --status | 只读设置状态 |
deepseek setup --tools --plugins | 搭建本地工具/插件目录 |
deepseek models | 列出实时 API 模型 |
deepseek sessions | 列出已保存的会话 |
deepseek resume --last | 恢复最新会话 |
deepseek serve --http | HTTP/SSE API 服务器 |
deepseek mcp list | 列出已配置的 MCP 服务器 |
deepseek mcp-server | 运行调度器 MCP stdio 服务器 |
五、与其他工具对比
| 维度 | Claude Code | Cursor | DeepSeek TUI |
|---|---|---|---|
| 运行环境 | IDE/CLI | IDE | 终端 |
| 模型 | Claude | Claude/GPT | DeepSeek V4 |
| 上下文 | 200K | 200K | 1M |
| 工具集成 | MCP | 内置 | MCP + 原生 |
| 思考展示 | 需开启 | 部分 | 流式实时 |
| 成本 | 高 | 中 | 低 |
DeepSeek 的优势
| 优势 | 说明 |
|---|---|
| 价格低 | deepseek-v4-flash 极低成本 |
| 上下文长 | 1M Token |
| 能力强 | V4 模型能力接近 GPT-4o |
| 本土化 | 国内直连,无需翻墙 |
六、支持其他提供商
DeepSeek TUI 不仅支持 DeepSeek 官方 API,还支持其他提供商:
NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_NVIDIA_API_KEY"
deepseek --provider nvidia-nim
# 或者按进程设置
DEEPSEEK_PROVIDER=nvidia-nim NVIDIA_API_KEY="..." deepseek
七、使用场景示例
场景1:代码分析
$ deepseek
> 分析这个项目的架构
[AI 开始分析]
[实时展示思考过程]
[完成架构分析报告]
场景2:批量重构
$ deepseek --yolo
> 把所有 console.log 改成 logger.info
[AI 批量处理]
[完成后展示修改统计]
场景3:并行研究
$ deepseek
> 用4个子智能体分别调研:React、Vue、Angular、Svelte的现状
[启动4个子智能体]
[每个子智能体独立研究]
[汇总研究报告]
八、配置详解
settings.toml 示例
# 基础设置
api_key = "your-api-key"
default_model = "deepseek-v4-pro"
# 工具设置
[tools]
shell_allow = true
git_allow = true
dangerously_allow_llm_to_execute_commands = true
# 模式设置
[mode]
default = "agent"
yolo_auto_approve = false
# UI 设置
[ui]
locale = "zh_CN"
theme = "dark"
# RLM 设置
[rlm]
max_sub_agents = 8
default_sub_model = "deepseek-v4-flash"
九、总结
DeepSeek TUI 是一个非常有前景的项目,它把强大的 DeepSeek V4 模型能力和开发者最熟悉的终端环境完美地结合在一起。
核心价值
| 价值 | 说明 |
|---|---|
| 原生沉浸 | 在终端里获得完整的 AI 编程体验 |
| 透明思考 | 实时看到 AI 的推理过程 |
| 真正动手 | 文件、Shell、Git 都能操作 |
| 超长记忆 | 1M Token 上下文 |
| 多种模式 | Plan/Agent/YOLO 满足不同需求 |
| 安全放心 | 会话保存和工作区回滚 |
适用人群
- 喜欢在终端里工作的开发者
- 想要更原生、更强大的 AI 编码助手
- 需要长上下文理解的大型项目
- 对成本敏感的用户
本文首发于「程序员茄子」博客,原文链接:https://chenxutan.com