在终端中运行的 DeepSeek 模型编码代理
- 工具收集
- 5小时前
- 10热度
- 0评论
面向 DeepSeek V4 模型的终端原生编程智能体,支持 100 万 token 上下文、思考模式推理流和完整工具调用。单一二进制,无需 Node/Python 运行时——开箱即带 MCP 客户端、沙箱和持久化任务队列。
deepseek 是单一 Rust 二进制——运行时不依赖 Node.js 或 Python。 下面三种方式装出来的是同一个二进制,按你已有的工具链选一个即可:
# 1. npm —— 已装 Node 的最方便方式。npm 包只是一个下载器,
# 会从 GitHub Releases 拉取对应平台的预编译二进制,
# 并不会让 deepseek 本身依赖 Node 运行时。
npm install -g deepseek-tui
# 2. Cargo —— 无需 Node。
cargo install deepseek-tui-cli --locked # `deepseek` 入口
cargo install deepseek-tui --locked # `deepseek-tui` TUI 二进制
# 3. 直接下载 —— 无需任何工具链。
# https://github.com/Hmbown/DeepSeek-TUI/releases
# 覆盖 Linux x64/ARM64、macOS x64/ARM64、Windows x64
中国大陆访问较慢时,npm 可加 --registry=https://registry.npmmirror.com, 或使用下方的 Cargo 镜像。

这是什么?
DeepSeek TUI 是一个完全运行在终端里的编程智能体。它让 DeepSeek 前沿模型直接访问你的工作区:读写文件、运行 shell 命令、搜索浏览网页、管理 git、调度子智能体——全部通过快速、键盘驱动的 TUI 完成。
它面向 DeepSeek V4(deepseek-v4-pro / deepseek-v4-flash)构建,原生支持 100 万 token 上下文窗口和思考模式流式输出。
主要功能
原生 RLM(rlm_query)—— 利用现有 API 客户端并行调度 1-16 个低成本 deepseek-v4-flash 子任务,用于批量分析和并行推理
思考模式流式输出 —— 实时观察模型在解决问题时的思维链展开
完整工具集 —— 文件操作、shell 执行、git、网页搜索/浏览、apply-patch、子智能体、MCP 服务器
100 万 token 上下文 —— 上下文接近上限时自动智能压缩,支持前缀缓存感知以降低成本
三种交互模式 —— Plan(只读探索)、Agent(带审批的默认交互)、YOLO(可信工作区自动批准)
推理强度档位 —— 用 Shift+Tab 在 off → high → max 之间切换
会话保存和恢复 —— 长任务的断点续作
工作区回滚 —— 通过 side-git 记录每轮前后快照,支持 /restore 和 revert_turn,不影响项目自己的 .git
持久化任务队列 —— 后台任务在重启后仍然存在,支持计划任务和长时间运行的操作
HTTP/SSE 运行时 API —— deepseek serve --http 用于无界面智能体流程
MCP 协议 —— 连接 Model Context Protocol 服务器扩展工具,见 docs/MCP.md
LSP 诊断 —— 每次编辑后通过 rust-analyzer、pyright、typescript-language-server、gopls、clangd 提供内联错误/警告
用户记忆 —— 可选的持久化笔记文件注入系统提示,实现跨会话偏好保持
多语言 UI —— 支持 en、ja、zh-Hans、pt-BR,支持自动检测
实时成本跟踪 —— 按轮次和会话统计 token 用量与成本估算,含缓存命中/未命中明细
技能系统 —— 可通过 GitHub 安装的组合式指令包,无需后端服务
架构说明
deepseek(调度器 CLI)→ deepseek-tui(伴随二进制)→ ratatui 界面 ↔ 异步引擎 ↔ OpenAI 兼容流式客户端。工具调用通过类型化注册表(shell、文件操作、git、web、子智能体、MCP、RLM)路由,结果流式返回对话记录。引擎管理会话状态、轮次追踪、持久化任务队列和 LSP 子系统——它在下一步推理前将编辑后诊断反馈到模型上下文中。
Github开源:https://github.com/Hmbown/DeepSeek-TUI