推荐一个开源免费的国产版Claude Code:完全本地、小模型友好、Windows 开箱即用。

摘要: 近日,GitHub 上出现了一款名为 KWCode(天工开物) 的国产 Coding Agent 项目,专为本地部署的开源大模型(8B-30B)优化设计。该项目主打「数据不出网、Windows 打开就能用、越用越懂你的项目」,试图解决小模型在编程辅助场景下的五大核心痛点。 适合谁用? 公司代码不能上...

近日,GitHub 上出现了一款名为 KWCode(天工开物) 的国产 Coding Agent 项目,专为本地部署的开源大模型(8B-30B)优化设计。该项目主打「数据不出网、Windows 打开就能用、越用越懂你的项目」,试图解决小模型在编程辅助场景下的五大核心痛点。

KWCode 项目封面

适合谁用?

  • 公司代码不能上云,想用 AI 辅助编程
  • 显卡显存有限(4GB-24GB),跑不动大模型
  • 想要一个可定制、可进化的本地编程助手

与 Claude Code、Cursor 等依赖云端强模型的工具不同,KWCode 的核心思路是「LLM 只做分类和生成,确定性流水线做决策和验证」。项目作者认为,现有 Coding Agent 框架都是为强 LLM 设计的,靠模型的推理能力自主决策、调用工具。但本地开源模型(8B-30B)在 ReAct 循环中容易失控、产生幻觉,无法胜任复杂任务。


KWCode 针对小模型跑 Coding Agent 的五大痛点给出了系统性的解决方案:

痛点一:上下文爆炸。小模型窗口仅 8K-32K,对话几轮后 context 塞满,模型开始胡说。KWCode 采用纯算法上下文压缩(头尾保留 + 中间关键词提取,耗时小于 10ms),在 context 快满时自动压缩历史对话。

痛点二:错误重复。小模型修 bug 失败后,往往用同样方式再试一遍,三次机会全浪费在同一个错误上。KWCode 引入三阶段重试 + Reflection + Debug Subagent 机制:第一次正常描述,第二次从错误信息出发并注入运行时调试数据,第三次最小化修改。每次重试前先做 Reflection 分析失败原因,绝不重复同样的错。

痛点三:不能调用工具。大部分本地 Agent 框架只能生成代码文本,不能真正执行命令、读写文件、跑测试。KWCode 内置了 read_file、write_file、run_bash、list_dir、git 五个确定性工具,Generator 生成 patch 后 Verifier 自动执行语法检查与 pytest 验证,失败立即重试。

痛点四:数据安全。Claude Code、Cursor 将代码发到海外服务器,公司代码、内网项目走不通。KWCode 全部本地运行,代码不出电脑,模型跑在本地,搜索可选本地 SearXNG 部署,统计数据存本地 SQLite,实现零网络依赖。

痛点五:代码定位靠猜。现有工具把文件列表丢给 LLM 让它猜哪个文件相关,小模型猜错文件后续全错。KWCode 采用 BM25 + AST 调用图两阶段定位,毫秒级完成,不调用 LLM,沿调用链追踪隐藏依赖。

在技术架构上,KWCode 实现了确定性专家流水线:用户输入经 Gate 任务分类后,由 Locator 精准定位文件和函数,Generator 只生成修改部分,Verifier 进行语法检查与 pytest 验证,失败时触发 DebugSubagent 捕获运行时变量值,必要时由 SearchAugmentor 搜索补充信息。该设计参考了 ICSE 2025 论文 Agentless 的结论——确定性流水线在 SWE-bench 上同时达到最高通过率和最低成本。

此外,KWCode 还支持 DAG 多任务编排(串行 + 并行混合执行)、专家飞轮(使用积累自动生成专家规则并优化 Prompt)、Reflexion 持久化(结构化记录失败模式)以及模型能力自适应(根据模型规模自动调整策略)。

项目采用 Python 3.10+ 开发,依赖 tree-sitter、rank-bm25、SQLite、sentence-transformers 等组件,兼容 Windows、macOS 和 Linux。

目前版本号为 0.9.0,拥有 39 个 Star 和 6 个 Fork,测试覆盖 292/292 全部通过,采用 MIT 协议开源。

参考链接

  1. KWCode GitHub 仓库: https://github.com/val1813/kwcode

转自:https://mp.weixin.qq.com/s/FiF4y0UQv3rPzEi-mSsj4w