免费白嫖 Claude Code,一周狂揽 1 万 Star
- 工具收集
- 12小时前
- 15热度
- 0评论
最近刷 GitHub 的时候,我发现了一个暴力到离谱的项目。free-claude-code,上线刚一周,Star 数直接冲上 1 万。这速度,连不少大厂开源项目都自愧不如。

这东西干嘛的?一句话:让你零成本把 Claude Code 跑起来。不需要 Anthropic 的 API Key,不需要付费,直接在终端、VSCode 甚至 Discord 里当正版用。我试了一下,确实能跑,效率还挺高。
00 白嫖 Claude Code,设计有点意思
Claude Code 是 Anthropic 推出的编程助手,能力很强,但门槛也不低——API Key 要钱,额度有限,用起来总觉得肉疼。
free-claude-code 的做法很聪明:它做了一个轻量级代理,把 Claude Code 的请求拦截下来,路由到免费的 AI 模型提供商。核心亮点:
- NVIDIA NIM:每分钟 40 次请求,完全免费
- OpenRouter:几百个模型随便选,很多也是免费的
- DeepSeek:直接 API 调用
- LM Studio / llama.cpp:全本地运行,零成本
说白了,它是一个万能中转站。你本地装好 Claude Code,配置两个环境变量,剩下的它全包了。不需要改任何代码,Drop-in Replacement。
01 最牛的几个设计点
我仔细翻了它的文档和代码,有几个设计确实让人眼前一亮。
Per-Model Mapping:你可以把 Claude 三个不同模型(Opus、Sonnet、Haiku)分别路由到不同的免费服务。比如 Opus 走 NVIDIA,Sonnet 走 OpenRouter,Haiku 本地跑。混搭使用,完全不冲突。这在同类项目中很少见。
Thinking Token 支持:Claude 有个原生功能叫 thinking block,就是模型在回答前先展示思考过程。free-claude-code 能自动解析其他模型输出的 <think> 标签和 reasoning_content,转换成 Claude 原生的思考块,体验几乎一致。
智能请求优化:它把 API 请求分成 5 类,其中一些简单的调用直接在本地拦截处理,不上传给外部服务。既省配额,又降低延迟。这细节说明作者是真的认真用过、踩过坑的。
02 怎么用?两分钟上手
我用的是 macOS,试了下最简流程:
- 装依赖:确保 Python 3.14+ 和
uv已安装 - 克隆仓库:
git clone https://github.com/Alishahryar1/free-claude-code.git - 设置环境变量:指定你用的免费提供商,比如 NVIDIA NIM 或 OpenRouter
- 启动代理:运行
python proxy.py,然后在 Claude Code 里把 API 端点指向localhost:8080
搞定。终端里直接敲 claude,就能用上免费版 Claude Code 了。VSCode 扩展同理,改一下设置就行。
作者还写了个 Discord Bot 模式,你甚至可以在 Discord 里用。不过我觉得终端和 VSCode 就够用了。
03 这项目代表什么趋势?
一周 1 万 Star,说明一件事:开发者对高质量免费编程助手的需求极其旺盛。
Claude Code 本身是付费产品,Anthropic 的 API 定价也不便宜。但开源社区不认这个账——他们用代理、用路由、用本地模型,硬是把门槛拉到了零。
free-claude-code 不是第一个这么干的,但它的完成度很高。Per-Model Mapping、Thinking Token 支持、请求优化,这三样加起来,让它比大多数同类项目好用得多。
当然,免费服务有局限:NVIDIA NIM 每分钟 40 次,高峰期可能排队。但日常编码、调试、写点小脚本,完全够用。
如果你也想白嫖 Claude Code,试试这个项目。它不会让你失望。
开源地址:https://github.com/Alishahryar1/free-claude-code
转自:https://mp.weixin.qq.com/s/n8rzDzc470r563NZ7b_wMQ