GitHub Trending 榜首:终端里的 AI 编程Agent
今天 GitHub Trending 的榜首被一个开源项目霸占——DeepSeek-TUI,单日暴涨 2,434 星,总星数突破 11.3k,成为目前 GitHub 上最火的 AI 工具项目。
它是什么?
DeepSeek-TUI 是一个运行在终端里的 AI 编码 Agent,基于 Rust 构建,直接对接 DeepSeek V4 系列模型(deepseek-v4-pro / deepseek-v4-flash)。它不是简单的代码补全工具,而是一个能读文件、写代码、执行 Shell 命令、搜索网页、管理 Git、协调子 Agent 的全功能编程助手。
用一句话概括:在终端里跑一个 Claude Code / Cursor 级别的 AI Agent,但完全免费、开源、零后台服务依赖。
核心能力
Auto 模式:让 Agent 自己选模型
--model auto 是 DeepSeek-TUI 最具特色的功能。它不是让你手动选择模型,而是让 Agent 根据每次任务的复杂度,自动路由到合适的模型和推理级别:
- 简单问题 →
deepseek-v4-flash,不开推理,快速响应 - 编码、调试、架构设计 → 自动升级到
deepseek-v4-pro,开启high或max推理
路由判断由一个轻量级 deepseek-v4-flash 调用完成,API 收到的始终是具体的模型 ID,不会看到 "auto" 这个字段。
流式推理块:看见 AI 的思考过程
DeepSeek V4 支持推理模式(thinking mode),DeepSeek-TUI 会把模型的推理过程实时流式展示在终端里。你能看到 AI 在写代码之前是怎么一步步思考的——这比只看最终输出有价值得多。
三档工作模式
| 模式 | 行为 |
|---|---|
| Plan 🔍 | 只读调查,模型探索代码并提出方案,不修改文件 |
| Agent 🤖 | 交互式模式,多步工具调用,每次操作需要确认 |
| YOLO ⚡ | 自动批准所有工具调用,适合受信任的工作空间 |
全工具链
文件操作、Shell 执行、Git 管理、网页搜索、补丁应用、子 Agent 协调、MCP 协议支持——DeepSeek-TUI 的工具注册表覆盖了几乎所有开发场景。特别值得注意的是:
- MCP 协议:可以连接 Model Context Protocol 服务器,扩展工具生态
- LSP 诊断:每次编辑后自动通过 rust-analyzer、pyright、typescript-language-server 等注入诊断信息,让 AI 的下一轮推理基于真实的编译器反馈
- Skills 系统:可组合、可安装的技能包,从 GitHub 社区一键安装,无需后端服务
- 会话保存/恢复:长期任务可以 checkpoint 和恢复,不怕终端关闭
- 工作空间回滚:基于 side-git 的编辑快照,
/restore即可回退,不影响仓库本身的.git
成本极低
DeepSeek V4 的定价在当前市场堪称碾压:
deepseek-v4-flash:输入 $0.14/1M token(缓存命中 $0.0028),输出 $0.28/1Mdeepseek-v4-pro:输入 $0.435/1M token(缓存命中 $0.003625),输出 $0.87/1M
Pro 模型目前还有 75% 限时折扣,持续到 2026 年 5 月 31 日。DeepSeek-TUI 内置实时成本追踪,每轮调用的 token 用量和费用一目了然。
多模型支持
不仅限于 DeepSeek 官方 API,还支持:
- NVIDIA NIM:通过
--provider nvidia-nim接入 - Fireworks:通过
--provider fireworks接入 - 自建 SGLang:
SGLANG_BASE_URL环境变量即可 - 自建 vLLM:
VLLM_BASE_URL环境变量即可
这意味着你可以在本地部署 DeepSeek V4,然后完全离线使用这个 Agent。
Zed 编辑器集成
DeepSeek-TUI 支持 ACP(Agent Client Protocol),可以直接作为 Zed 编辑器的自定义 Agent 使用:
{
"agent_servers": {
"DeepSeek": {
"type": "custom",
"command": "deepseek",
"args": ["serve", "--acp"]
}
}
}
v0.8.14 更新要点
最新发布的 v0.8.14 是一个稳定化版本,核心改进包括:
- Auto 模式回归:
--model auto、/model auto、配置项和子 Agent 全部支持自动路由 - 按轮次成本核算修复:V4 推理 token 现在被正确计为计费输出
- 首次设置流程优化:缺失配置文件时自动引导用户完成 API Key 设置
- vLLM Provider 支持:自建 vLLM 端点可直接接入
安装方式
# npm(最简单,自动下载预编译二进制)
npm install -g deepseek-tui
# Cargo(Rust 用户)
cargo install deepseek-tui-cli --locked # deepseek 入口
cargo install deepseek-tui --locked # deepseek-tui 界面
# Homebrew(macOS)
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
# 国内镜像加速
npm install -g deepseek-tui --registry=https://registry.npmmirror.com
为什么值得关注?
DeepSeek-TUI 的爆发有几个深层信号:
- 终端 Agent 是刚需:开发者不愿意为了 AI 编程离开终端,DeepSeek-TUI 证明了「在终端里跑 AI Agent」这个范式有巨大市场
- DeepSeek 生态加速成熟:围绕 DeepSeek 模型的第三方工具生态正在快速膨胀,从 TUI 到 MCP 到 Skills,完整度不输 OpenAI 生态
- 开源替代方案崛起:当 Cursor 和 Claude Code 越来越贵,一个免费、开源、基于 Rust 的高性能 Agent 正在成为开发者的首选
- 中国开发者友好:内置中文本地化、npm/Cargo 国内镜像支持、DeepSeek API 的低成本——这几乎是为中国开发者量身定做的
总结
DeepSeek-TUI 不是又一个套壳聊天工具,而是一个真正的终端编码 Agent。11.3k 的 GitHub 星数和单日 2,434 星的增长速度说明,市场正在用脚投票——终端里的 AI Agent,开源 + DeepSeek 模型的组合拳,正在成为 2026 年开发者工具的新标准。
如果你还在用 Claude Code 或 Cursor,强烈建议试用一下 DeepSeek-TUI。npm install -g deepseek-tui 一条命令就能开始,DeepSeek API 的价格可能只有你目前成本的十分之一。