案例 GitHub 3.5K Star!DeepSeek TUI:终端中的深度思考编码智能体

2026-05-05 19:10:30 +0800 CST views 9

GitHub 3.5K Star!DeepSeek TUI:终端中的深度思考编码智能体

来源: 微信公众号
GitHub: https://github.com/Hmbown/DeepSeek-TUI
发布平台: 程序员茄子(chenxutan.com)
标签: AI编程, DeepSeek, TUI, 终端工具, 编码智能体, Claude Code平替


引言

这两天,在 GitHub 上发现了一个让人眼前一亮的项目——DeepSeek TUI。开源两天斩获 3.5K Star

它把 DeepSeek 最新的 V4 模型直接搬进了终端,做成了一个完整的编码智能体

现在的 AI 编码助手越来越多,但大多数都是通过网页或者 IDE 插件来使用的。这个项目反其道而行之,完全扎根在终端里,给开发者一种原生的、沉浸式的体验。

更重要的是,它不仅仅是一个聊天工具,而是一个真正能"动手"的智能体。

你可以直接让它读写项目文件、执行 Shell 命令、搜索网页、管理 Git,甚至还能看到模型的思考过程实时展开。

这种把强大的 AI 能力和开发者最熟悉的终端环境结合在一起的方式,确实很有吸引力。


一、项目简介

DeepSeek TUI 是一个完全在终端中运行的编码智能体。

它给 DeepSeek 的前沿模型提供了直接访问你的工作区的能力:

  • 读取和编辑文件
  • 运行 Shell 命令
  • 搜索网页
  • 管理 Git
  • 编排子智能体

所有这一切都通过一个快速、键盘驱动的 TUI(文本用户界面)来完成。

核心技术

特性说明
模型DeepSeek V4 (pro/flash)
上下文1M Token
思考模式原生思维链流式输出

二、核心亮点深度解析

1. 原生 RLM 并行推理

DeepSeek TUI 内置了原生的 RLM(rlm_query 工具)支持,可以同时启动 1-16 个廉价的 deepseek-v4-flash 子智能体并行工作。

用途

场景说明
批量分析同时分析多个文件
任务分解并行处理子任务
复杂推理多角度并行思考

示意图

主智能体
    ├── 子智能体1 → 分析代码块A
    ├── 子智能体2 → 分析代码块B
    ├── 子智能体3 → 搜索相关文档
    └── 子智能体4 → 检查潜在问题

2. 思考模式实时展示

这个项目最吸引人的特性之一就是思考模式的流式展示

你可以看到 DeepSeek 的**思维链(chain-of-thought)**在实时展开,看着它如何:

  • 一步一步推理你的代码
  • 分析问题
  • 规划解决方案

这种透明性让 AI 的决策过程变得可理解、可追踪。

3. 完整的工具套件

DeepSeek TUI 提供了一套完整的工具:

工具类型功能
文件操作读取、编辑、创建、删除
Shell 执行运行命令行命令
Git 管理commit、push、pull、branch
网页搜索/浏览搜索和抓取网页
应用补丁智能补丁应用
子智能体并行推理编排
MCP 服务器外部工具集成

这些工具不是摆设,而是真正能让 AI 动手去做事的利器

4. 1M Token 超长上下文

支持 DeepSeek V4 的 1M Token 上下文窗口,当上下文填满时还能自动进行智能压缩。

这意味着:

  • 可以一次性分析整个代码库
  • 长对话不会丢失上下文
  • 复杂项目的全局理解成为可能

5. 三种工作模式

项目提供了三种交互模式,满足不同场景的需求:

模式说明适用场景
Plan 模式只读探索,模型先探索和���出分解计划再进行修改安全探索式开发
Agent 模式默认的交互模式,多步工具使用带有审批门槛日常开发
YOLO 模式在受信任的工作区中自动批准所有工具自动化处理

6. 会话保存与工作区回滚

功能说明
会话保存长时间任务中支持检查点保存和恢复
工作区回滚通过 side-git 在每轮操作前后进行快照

回滚命令

/restore        # 回滚到某个检查点
revert_turn     # 撤销上一轮操作

不会影响你仓库的 .git,放心让 AI 去尝试!

7. 多语言 UI 支持

DeepSeek TUI 支持多语言 UI!

通过 settings.toml 中的 locale 设置,可以控制界面的显示语言:

语言设置值
简体中文zh_CN
日语ja_JP
葡萄牙语(巴西)pt_BR

不会改变模型输出的语言,只改变界面语言。


三、安装与配置

安装方式

方式一:npm 安装(最简单)

npm install -g deepseek-tui
deepseek

方式二:Cargo 安装

# 配置镜像(如果在中国内地访问慢)
# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"

[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"

# 安装
cargo install deepseek-tui-cli --locked

方式三:下载预编译二进制

直接从 GitHub Releases 页面下载。

方式四:从源码安装

git clone https://github.com/Hmbown/DeepSeek-TUI.git
cd DeepSeek-TUI
cargo install --path crates/tui --locked

配置 API 密钥

# 通过 CLI
deepseek login --api-key "YOUR_DEEPSEEK_API_KEY"

# 通过环境变量
export DEEPSEEK_API_KEY="YOUR_DEEPSEEK_API_KEY"
deepseek

四、命令行功能

命令功能
deepseek启动交互式 TUI
deepseek "explain this function"一次性提示
deepseek --model deepseek-v4-flash "summarize"模型覆盖
deepseek --yoloYOLO 模式
deepseek login --api-key "..."保存 API 密钥
deepseek doctor检查设置和连接性
deepseek setup --status只读设置状态
deepseek setup --tools --plugins搭建本地工具/插件目录
deepseek models列出实时 API 模型
deepseek sessions列出已保存的会话
deepseek resume --last恢复最新会话
deepseek serve --httpHTTP/SSE API 服务器
deepseek mcp list列出已配置的 MCP 服务器
deepseek mcp-server运行调度器 MCP stdio 服务器

五、与其他工具对比

维度Claude CodeCursorDeepSeek TUI
运行环境IDE/CLIIDE终端
模型ClaudeClaude/GPTDeepSeek V4
上下文200K200K1M
工具集成MCP内置MCP + 原生
思考展示需开启部分流式实时
成本

DeepSeek 的优势

优势说明
价格低deepseek-v4-flash 极低成本
上下文长1M Token
能力强V4 模型能力接近 GPT-4o
本土化国内直连,无需翻墙

六、支持其他提供商

DeepSeek TUI 不仅支持 DeepSeek 官方 API,还支持其他提供商:

NVIDIA NIM

deepseek auth set --provider nvidia-nim --api-key "YOUR_NVIDIA_API_KEY"
deepseek --provider nvidia-nim

# 或者按进程设置
DEEPSEEK_PROVIDER=nvidia-nim NVIDIA_API_KEY="..." deepseek

七、使用场景示例

场景1:代码分析

$ deepseek
> 分析这个项目的架构
[AI 开始分析]
[实时展示思考过程]
[完成架构分析报告]

场景2:批量重构

$ deepseek --yolo
> 把所有 console.log 改成 logger.info
[AI 批量处理]
[完成后展示修改统计]

场景3:并行研究

$ deepseek
> 用4个子智能体分别调研:React、Vue、Angular、Svelte的现状
[启动4个子智能体]
[每个子智能体独立研究]
[汇总研究报告]

八、配置详解

settings.toml 示例

# 基础设置
api_key = "your-api-key"
default_model = "deepseek-v4-pro"

# 工具设置
[tools]
shell_allow = true
git_allow = true
dangerously_allow_llm_to_execute_commands = true

# 模式设置
[mode]
default = "agent"
yolo_auto_approve = false

# UI 设置
[ui]
locale = "zh_CN"
theme = "dark"

# RLM 设置
[rlm]
max_sub_agents = 8
default_sub_model = "deepseek-v4-flash"

九、总结

DeepSeek TUI 是一个非常有前景的项目,它把强大的 DeepSeek V4 模型能力和开发者最熟悉的终端环境完美地结合在一起。

核心价值

价值说明
原生沉浸在终端里获得完整的 AI 编程体验
透明思考实时看到 AI 的推理过程
真正动手文件、Shell、Git 都能操作
超长记忆1M Token 上下文
多种模式Plan/Agent/YOLO 满足不同需求
安全放心会话保存和工作区回滚

适用人群

  • 喜欢在终端里工作的开发者
  • 想要更原生、更强大的 AI 编码助手
  • 需要长上下文理解的大型项目
  • 对成本敏感的用户

本文首发于「程序员茄子」博客,原文链接:https://chenxutan.com

推荐文章

Rust 并发执行异步操作
2024-11-19 08:16:42 +0800 CST
Python 获取网络时间和本地时间
2024-11-18 21:53:35 +0800 CST
10个极其有用的前端库
2024-11-19 09:41:20 +0800 CST
使用Python实现邮件自动化
2024-11-18 20:18:14 +0800 CST
PHP 代码功能与使用说明
2024-11-18 23:08:44 +0800 CST
Golang 中你应该知道的 Range 知识
2024-11-19 04:01:21 +0800 CST
Gin 与 Layui 分页 HTML 生成工具
2024-11-19 09:20:21 +0800 CST
go发送邮件代码
2024-11-18 18:30:31 +0800 CST
JavaScript 上传文件的几种方式
2024-11-18 21:11:59 +0800 CST
宝塔面板 Nginx 服务管理命令
2024-11-18 17:26:26 +0800 CST
程序员茄子在线接单