Atomgit 推出免费无限量调用GLM-5和Qwen3.5-398B!这个网站直接把顶级模型API放开了

摘要: 免费无限量调用GLM-5和Qwen3.5-398B!AtomGit直接把顶级模型API放开了 OpenAI兼容接口一键接入,OpenClaw验证可用,开发者白嫖大模型羊毛就现在 你是不是经常被大模型API费用卡脖子? 随便调用几次复杂任务,账单就蹭蹭往上涨。想本地跑400B级别的超大模型?显卡直接哭...

免费无限量调用GLM-5和Qwen3.5-398B!AtomGit直接把顶级模型API放开了

OpenAI兼容接口一键接入,OpenClaw验证可用,开发者白嫖大模型羊毛就现在

你是不是经常被大模型API费用卡脖子?

随便调用几次复杂任务,账单就蹭蹭往上涨。想本地跑400B级别的超大模型?显卡直接哭晕在厕所。以前只能忍着,现在突然多了一个免费不限量的选择。

前几天刷小众软件,看到AtomGit推出一波限时活动,直接把GLM-5、Qwen3.5-122B-A10B和Qwen3.5-397B-A17B这三个顶级模型开放免费无限调用。消息一出,圈里不少开发者已经冲去注册了。


我点进去一看,确实简单粗暴:只要拿到API Key,就能用OpenAI兼容的接口直接接。

AtomGit这次到底放了什么福利

活动核心就一句话:免费不限量

具体能用的模型有三个:

  • • zai-org/GLM-5
  • • Qwen/Qwen3.5-122B-A10B
  • • Qwen/Qwen3.5-397B-A17B(接近398B级别)

调用地址统一是:
https://api-ai.gitcode.com/v1

API Key去这里领:
https://ai.atomgit.com/dashboard/api-key

官网:https://atomgit.com/

说白了,这就是一套完全兼容OpenAI格式的接口。你以前怎么接ChatGPT的API,现在就把base_url换成上面这个地址,key换成自己的,就能直接用这些开源大模型。

AtomGit本身是开放原子开源基金会旗下的代码托管+AI平台,跟GitCode深度整合。这次直接把算力和模型免费放出来,相当于给开发者多了一条不用花钱的超大模型通道。

实际测试情况:OpenClaw里跑通了

小众软件的作者亲自测了测。

在OpenClaw客户端里,Qwen3.5-397B-A17B模型成功调用起来了。但有个小插曲:显示的上下文窗口只有16K。作者自己也纳闷,是不是配置哪里出错了。

对比之下,通过OpenClaw官方auth登录的Qwen原生模型,上下文能到125K。

目前还没完全搞清楚是平台设置问题还是客户端适配问题。不过至少证明模型本身是能用的,调用没崩。

作者还提到,因为免费的人太多,流量太大,有时候会调用失败。建议大家早点注册,先占坑再说。

三步零门槛拿到并用上

别看名字专业,其实上手比想象中简单多了。按下面步骤走,5分钟就能跑起来。

第一步:注册AtomGit账号
直接点这个邀请链接(带福利码):
https://atomgit.com/setting/points?type=invite&picode=UWTF3Q8B&utm_source=ic_p

注册完登录,系统会自动给你一些积分,够用。(建议绑定邮箱和微信)

第二步:领取API Key
登录后进入仪表盘:
https://ai.atomgit.com/dashboard/api-key

点一下生成,就出来一串key了。复制好,千万别泄露。

第三步:在工具里配置
以OpenClaw为例(作者验证过的):

  • • 打开OpenClaw设置
  • • 新增自定义API
  • • Base URL填:https://api-ai.gitcode.com/v1
  • • API Key粘贴进去
  • • 模型选择上面三个之一(比如Qwen/Qwen3.5-397B-A17B)

保存后直接新建会话测试。输入一句“你好”,如果返回正常,就成功了。

如果你用的是其他支持OpenAI兼容接口的工具,比如Cursor、Continue.dev或者自建的Python脚本,改两个参数就行。代码示例超简单(通用写法):

from openai import OpenAI

client = OpenAI(
    base_url="https://api-ai.gitcode.com/v1",
    api_key="你的key"
)

response = client.chat.completions.create(
    model="Qwen/Qwen3.5-397B-A17B",
    messages=[{"role": "user", "content": "帮我写一段Python排序代码"}]
)
print(response.choices[0].message.content)

跑起来就是你的免费大模型了。

为什么现在冲特别值

说实话,免费无限量调用400B级别模型的机会真不多见。

GLM-5来自智谱系,擅长中文理解和复杂推理;Qwen3.5系列则是通义千问的最新迭代,代码能力和多语言表现都很强。尤其是那个397B的MoE版本,参数规模摆在那里,处理长文档、深度代码分析这种重活,表现往往比小模型稳得多。

以前想试这些模型,要么本地搭环境(要好几张A100),要么去官方平台排队付费。现在AtomGit直接把接口敞开了,等于把门槛拉到最低。

对开发者来说,意义特别大:

  • • 写代码时直接扔给模型审查
  • • 处理海量日志或文档总结
  • • 原型验证新想法,不用担心token费用
  • • 个人项目、学习研究随便造

就算只是好奇想试试400B模型的真实水平,现在也是最佳窗口期。

注意事项,别踩坑

虽然福利香,但有几点要提前知道。

第一,流量大导致偶尔调用失败。作者测试时就遇到过。建议错峰用,或者多试几次。

第二,上下文窗口显示只有16K的问题。可能是临时设置,也可能是客户端适配还没跟上。实际能用多少,还需要大家自己测测反馈。

第三,这是限时活动。官网没说具体截止时间,所以“先注册了再说”绝对是正确操作。积分和key早领早安心。

第四,模型名字里带A10B、A17B的,是MoE结构,激活参数少但总参数多,实际效果和全参数模型接近,但推理速度可能更快。

用的时候记得把key保管好,别随便分享。平台虽然免费,但滥用肯定会有风控。

转自:https://mp.weixin.qq.com/s/CevKxyBK-YmEPqz3-UqYcw