突发!Warp 终端开源了!

摘要: 早上一起来刷 GitHub,差点把麦当劳的雪碧喷到的键盘上 warpdotdev/warp 这个仓库,「真的,公开了」。 上线几个小时,star 直接干到 32.2k,1.3k fork,3k issues,70 个待审 PR —— 作为一个每天 18 小时泡在 Claude Code 和 Code...

早上一起来刷 GitHub,差点把麦当劳的雪碧喷到的键盘上
warpdotdev/warp 这个仓库,「真的,公开了」
上线几个小时,star 直接干到 32.2k,1.3k fork,3k issues,70 个待审 PR ——


作为一个每天 18 小时泡在 Claude Code 和 Codex 里的 "烧钱选手"(上一篇盘点说过,去年光烧 API 就 3 万人民币)


看到这个新闻第一反应是:

“「卧槽,Warp 居然真开了?」

是的,Warp还真就开源了。
哈哈哈哈哈,小声逼逼:打脸来得这么快终于开源了,这下可以让社区来适配中文了吧


而且,比开源更刺激的,是这事背后的「商业阳谋」——  Warp CEO Zach Lloyd 精心算计了整整 4 年的一招大棋。
OpenAI 还冲了上来,做了 创始赞助商(Founding Sponsor)
Warp x OpenAI logos on a purple background
你品,你细品。😏
今天就来给大家把这事 「掰开了,揉碎了,从代码到商业」 全部讲一讲。
废话不多说,GoGoGo!

一、Warp 是谁?凭什么这么大动静?🤔

先给没用过的朋友补个课。
Warp 是一个 2022 年从硅谷冒出来的"下一代终端",用 Rust 写的(仓库里 Rust 占 98.0%),创始人 Zach Lloyd 是前 Google Docs 的负责人。


它当年最炸的卖点有三个:

  1. 块状输出(Block) —— 把每条命令的输入和输出打包成一个"块",可以点选、复制、引用,告别瀑布流式 stdout
  2. AI 命令补全 —— 你打 "压缩这个文件夹",它帮你写 tar -czvf ...
  3. GPU 渲染 —— 告别 iTerm2 那种慢吞吞的滚动

「但是,Warp 当年最被人骂的也是它」 —— 闭源 + 强制登录 + 数据回传
很多老 hacker 当时就放话:「我用了 30 年终端,凭什么让你登录我才能 ls?」
所以,早期 Warp 最大争议之一是登录和遥测。
虽然 2024 年底它已经取消强制登录,但这次开源进一步解决了“客户端代码不可审计”的信任问题。
而且,Warp 是基于开源项目 Alacritty 起家的,融了 5000 万美刀,但一直没给 Alacritty 任何回馈 —— 这事儿 Hacker News 上吵了好几年。😤


直到 2026 年 4 月 28 日,Zach Lloyd 在官方博客一句话扔了核弹:

"Warp is now open-source."

全网炸裂! 💥

第二板块:这次开的是什么?两个许可证耍了个心机 ⚖️

很多媒体写"Warp 开源了"就完事,「这是不准确的」
带大家扒一扒仓库的真相。
打开 github.com/warpdotdev/warp,你会看到 License 文件其实是双协议

部分 协议 含义
warpui_core + warpui 两个 crate(UI 框架) MIT 完全自由,随便商用、随便闭源 fork
其余所有代码(终端核心、AI 集成、Block 系统) AGPL v3 强 copyleft,你 fork 改了再 SaaS 部署,必须开源


这个分法 「细品有讲究」

  • UI 框架开 MIT —— 是给生态做"诱饵",让别人能拿来做自己的产品(甚至和 Warp 竞争都行)
  • 核心开 AGPL v3 —— 是给 Warp 自己留护城河。你如果基于它改出一个联网服务,很多情况下也要把修改后的源码开放出来。

小声逼逼:这招很高明,愿称之为"双协议组合拳"。MIT 部分博好评,AGPL 部分卡死竞争对手。
HN 上有人直接评论:「这才是真开源,不是那种 Sourcegraph 式假惺惺。」
而 Apache-2.0 那个说法,是 EveryDev.ai 那篇分析文写错了,仓库实际不是 Apache。各位转载的时候别再传错辣。👀

第三板块:仓库一打开,全是给 AI 准备的"饲料" 🤖

进了仓库,直接打开目录树看了一遍。
「太典了。」


warpdotdev/warp/
├── .agents/skills/      ← 给 agent 看的"技能定义"
├── .claude/             ← Claude Code 配置
├── .warp/               ← Warp 自己的运行时配置
├── crates/              ← Rust 模块(核心代码)
├── app/                 ← 应用层
├── specs/               ← 给 Oz 生成的需求规格说明
├── docker/              ← 容器化部署
├── .config/  .vscode/  .cargo/  ...
├── CONTRIBUTING.md      ← 重点中的重点 ⭐
├── Cargo.toml
└── rust-toolchain.toml

.agents/skills/ 这个目录是关键。
看来现在代码开源也不是给人开源了,而都是给 Claude Code、给 AI 开源了,笑死我了
CONTRIBUTING.md 写得更明白:

ssue 由 maintainer 评估后,可能打上 ready-to-spec 或 ready-to-implement。前者代表可以开始写 spec,后者代表设计已定,可以开始实现。
Oz 会参与 triage、spec、implementation、review 这些流程;如果你想让 Oz cloud agent 接手某个 ready issue,还可以 @oss-maintainers 申请。
也就是说,整个仓库的工作流都是为"AI 协作"重新设计过的
issue 是 prompt,spec 是 system message,PR 是 model output。


这跟 GitHub 上 99% 的开源项目不一样。99% 是 "人类协作 + AI 辅助",而 Warp 是 "AI 主导 + 人类审核"
愿称之为 " GitHub 进入 Agent 元年 " 。

第四板块:开源不是慈善,Oz 才是真·主角 💰

OK,重头戏来了。
为什么 Warp 现在敢开源?
时间倒回 2021 年,Zach Lloyd 接受采访说过一句原话:

“「我们不会开源,因为竞争对手会 fork 我们的代码,再开一家终端公司。」

5 年前怕被 fork,5 年后主动开源。变量是什么?
是 AI 终端已经成了商品类
2025 年这一年,Claude Code、Codex、Gemini CLI、Aider、Ghostty、cmux 一个接一个出来。块状输出、AI 补全、GPU 渲染、智能历史 —— 这些 Warp 当年的"独门绝技",全部变成了行业标配
终端客户端,已经不值得 fork 了。护城河,被时代填平了。
[图片:2026 年 AI 终端 / agent CLI 工具图谱]
那 Warp 的下一个护城河在哪?
答案就是 —— Oz

Oz 是什么?

oz.devWarp 的云端 agent 编排平台。它不开源。
Oz 干的事,简单来说就是:给 agent 当 GitHub Actions + Kubernetes

  • 自动 triage 进来的 issue
  • 自动 review 别人提的 PR
  • 自动写 spec 文档
  • 自动跑 agent 实现 feature
  • 自动拉 PR 提交回仓库
  • 全程链接可观测、有 session log

而且 Oz 的 agent 跑在云端,不占你本地资源,可以并发跑几十个 PR。

商业模式:give away the client, charge for the cloud

这个模式见多了,太熟悉:

  • Cursor:编辑器免费/低价,云端推理收费
  • Vercel:Next.js 框架开源,部署平台收费
  • Supabase:PostgreSQL + 客户端开源,托管收费

Warp 完美复用了这套打法。 客户端 = 流量入口 + 信任建立,Oz = 收钱机器。
唯一的区别是:Warp 等了 4 年才动手。等到客户端不再是防守资产,才把它"扔出来"换信任。
「这不是仁慈,是商业纪律。」 —— EveryDev.ai 的原话,完全同意。

“小声逼逼:其实红墨redink也很类似,不是吗?

第五板块:OpenAI 跑来当创始赞助商,又是什么操作?🤝

更刺激的是,OpenAI 也下场了。
官方博客原话:

“"OpenAI is the founding sponsor of the new, open-source Warp repository."

而且,Oz 平台的 agent 工作流,默认跑在 GPT 模型上


的脑回路是这样的:

  1. Anthropic 有 Claude Code —— 现在已经做到 10 亿美元年化营收(上一篇盘点提过)
  2. Google 有 Gemini CLI + Antigravity
  3. xAI 则是收了 Cursor 
  4. OpenAI 自己的 Codex 总感觉有点边缘化

OpenAI 自己 CLI 阵地不够强,所以借 Warp 这个开源仓库当桥头堡,让 GPT 模型默默接管 agent 工作流。
Hacker News 上有人一针见血

“"This is OpenAI's Trojan Horse against Claude Code."

“(这是 OpenAI 对 Claude Code 的特洛伊木马。)

小声逼逼:这场 AI agent CLI 大战,已经不是产品比拼了,是阵营战。 站队比技术重要。

第六板块:吃瓜群众怎么看?HN 评论区一片泥沙俱下 🍿

Warp is now open-source 这个帖子,在 Hacker News 上 225 赞,147 评,热度顶到第一档。
翻了一遍评论区,「典中典」 的反应大概有这么几类:

✅ 真心叫好派

“"AGPL v3 is the right move. This is real open source, not Sourcegraph-style." (AGPL v3 是正确选择,这才是真开源。)

🤨 历史问题派

“"Cool, but where's the donation to Alacritty? You raised $50M off their work." (挺好,但你欠 Alacritty 的捐款呢?你拿他们的代码融了 5000 万。)

Warp 创始人 Zach 亲自下场回复:

“"We collaborated closely with the Alacritty team. They were super helpful." (我们和 Alacritty 密切合作,他们非常帮忙。)

Alacritty 当年的核心贡献者 nixpulvis 也出来打圆场:

“"No hard feelings. We didn't accept donations at that time anyway."

但是网友不买账:"你说没就没?给点真金白银啊。" 🤡

🤷 商业模式怀疑派

“"If I disable AI, why would I use Warp instead of regular terminal?" (我关掉 AI,为啥还用 Warp 而不是普通终端?)

Zach 回应:「我们正在让用户自由选择哪些 AI 功能开/关。」

🥶 替代品迁移派

替代品 评论
Ghostty 「UI 更简洁,已经迁过去了」
cmux 「基于 Ghostty,体验更平衡」
iTerm2 「老牌稳定,我还是回去了」
Wezterm / Kitty 「纯极客向,但确实快」

😂 灵魂吐槽派

“"Warp is trying to be everything: terminal + IDE + AI agent. Trying to be everything just makes it nothing." (Warp 想做所有事:终端+IDE+agent。什么都想做就什么都做不好。)

这条吐槽,觉得最致命。 Warp 在"纯终端用户"和"AI IDE 用户"之间摇摆,两边都不讨好。这次开源能不能解决定位问题,还是个未知数

第七板块:开源后,普通开发者能薅到什么羊毛?🐑

讲了这么多商业,到底跟我们这些撸代码的有啥关系?
总结了 4 个 「真实可用」 的薅毛点:

1️⃣ Warp 客户端永久免费 + 可自托管

以前 Warp 是要登录才能用、企业版要付费。现在你可以本地编译一份,完全断网跑,AGPL 给你保了底。

2️⃣ 国产开源模型即将原生支持

官方路线图明确说:

“"Support for open-source models: Kimi, MiniMax, Qwen."

这对国内用户太友好辣! 🇨🇳 Kimi 长文本 + Qwen 编码,扔进 Warp 当 agent,比海外模型成本低 5-10 倍。
按头安利:搞国内全栈的兄弟一定要试。

3️⃣ Settings 文件可移植

以前 Warp 的设置全锁在云端,现在可以导出一份配置 yaml,团队共享、跨机器同步、一键还原 —— Vim/Emacs 的可移植哲学回来了。✨

4️⃣ 公开 GitHub issues = 路线图真理源

“"Public GitHub issues as roadmap source of truth."

意思是:你想要啥功能,去仓库提 issue 就行,Warp 团队(和 Oz)会公开 triage。比内部产品经理拍脑袋强 100 倍。

第八板块:的最终判断 —— 这是阳谋,但也是好事 🎯

写到这里,差不多 4000 字了。给大家 「来个总结」
对我们普通用户意味着什么?
第一,AI 终端这个赛道终于卷到了"基础设施层"。就像 Web 服务器卷到 nginx 已经是标配一样,AI 终端再过 1 年就是标配。
第二,"客户端开源 + 云服务收钱"这套模式,会是下一波 AI 工具的标准答案。Cursor、Vercel 走通了,Warp 加入战局,感觉下一个就是 Claude Code 和 Gemini CLI(赌一杯奶茶)。
第三,OpenAI 通过赞助开源来卡 Anthropic 阵地,意味着 AI agent CLI 战争已经升级到阵营战。技术不再是壁垒,生态才是。
最后,要给 Warp 团队鼓个掌。
毕竟,敢把核心产品开源出来 —— 哪怕背后藏着商业算计 —— 也比那些喊着"开源精神"实际把代码锁死在 docker 镜像里的公司, 真诚 100 倍。
愿称之为:2026 年迄今最值得认真讨论的一次开源事件。(感觉比OpenClaw有意思,不是吗)

尾声:恐惧感的消失,第二次

去年这个时候,写过一篇《2025年我烧了3万块去用AI工具》,里面说过一句话:

“「2025 年最大的收获是 —— 恐惧感的消失。

那时候说的恐惧,是怕 AI 取代人。
今年这场 Warp 开源,让 「又一次感受到了恐惧感的消失」
这次怕的是 "被一家闭源公司锁死"
终端、IDE、agent、模型 —— 这些每天都用的东西,如果都掌握在几家硅谷巨头手里,那我们这些小开发者,就只是数字佃农。
而 AGPL v3 的开源、可自托管的客户端、国产模型的支持,意味着主动权正在重新分散到每个开发者手里

“「当 AI 像电力、像水一样成为基建之后,终端入口就是未来的插座,水龙头

我们的AI之路,可能…… 才刚刚开始

参考资料:

转自:https://mp.weixin.qq.com/s/aNM7gOcONbGlZU1t9Vwh1Q