Atomgit 推出免费无限量调用GLM-5和Qwen3.5-398B!这个网站直接把顶级模型API放开了
- 免费干货
- 2小时前
- 4热度
- 0评论
免费无限量调用GLM-5和Qwen3.5-398B!AtomGit直接把顶级模型API放开了
OpenAI兼容接口一键接入,OpenClaw验证可用,开发者白嫖大模型羊毛就现在
你是不是经常被大模型API费用卡脖子?
随便调用几次复杂任务,账单就蹭蹭往上涨。想本地跑400B级别的超大模型?显卡直接哭晕在厕所。以前只能忍着,现在突然多了一个免费不限量的选择。
前几天刷小众软件,看到AtomGit推出一波限时活动,直接把GLM-5、Qwen3.5-122B-A10B和Qwen3.5-397B-A17B这三个顶级模型开放免费无限调用。消息一出,圈里不少开发者已经冲去注册了。

我点进去一看,确实简单粗暴:只要拿到API Key,就能用OpenAI兼容的接口直接接。
AtomGit这次到底放了什么福利
活动核心就一句话:免费不限量。
具体能用的模型有三个:
- • zai-org/GLM-5
- • Qwen/Qwen3.5-122B-A10B
- • Qwen/Qwen3.5-397B-A17B(接近398B级别)
调用地址统一是:
https://api-ai.gitcode.com/v1
API Key去这里领:
https://ai.atomgit.com/dashboard/api-key
说白了,这就是一套完全兼容OpenAI格式的接口。你以前怎么接ChatGPT的API,现在就把base_url换成上面这个地址,key换成自己的,就能直接用这些开源大模型。
AtomGit本身是开放原子开源基金会旗下的代码托管+AI平台,跟GitCode深度整合。这次直接把算力和模型免费放出来,相当于给开发者多了一条不用花钱的超大模型通道。
实际测试情况:OpenClaw里跑通了
小众软件的作者亲自测了测。
在OpenClaw客户端里,Qwen3.5-397B-A17B模型成功调用起来了。但有个小插曲:显示的上下文窗口只有16K。作者自己也纳闷,是不是配置哪里出错了。
对比之下,通过OpenClaw官方auth登录的Qwen原生模型,上下文能到125K。
目前还没完全搞清楚是平台设置问题还是客户端适配问题。不过至少证明模型本身是能用的,调用没崩。
作者还提到,因为免费的人太多,流量太大,有时候会调用失败。建议大家早点注册,先占坑再说。
三步零门槛拿到并用上
别看名字专业,其实上手比想象中简单多了。按下面步骤走,5分钟就能跑起来。
第一步:注册AtomGit账号
直接点这个邀请链接(带福利码):
https://atomgit.com/setting/points?type=invite&picode=UWTF3Q8B&utm_source=ic_p
注册完登录,系统会自动给你一些积分,够用。(建议绑定邮箱和微信)
第二步:领取API Key
登录后进入仪表盘:
https://ai.atomgit.com/dashboard/api-key
点一下生成,就出来一串key了。复制好,千万别泄露。
第三步:在工具里配置
以OpenClaw为例(作者验证过的):
- • 打开OpenClaw设置
- • 新增自定义API
- • Base URL填:
https://api-ai.gitcode.com/v1 - • API Key粘贴进去
- • 模型选择上面三个之一(比如Qwen/Qwen3.5-397B-A17B)
保存后直接新建会话测试。输入一句“你好”,如果返回正常,就成功了。
如果你用的是其他支持OpenAI兼容接口的工具,比如Cursor、Continue.dev或者自建的Python脚本,改两个参数就行。代码示例超简单(通用写法):
from openai import OpenAI
client = OpenAI(
base_url="https://api-ai.gitcode.com/v1",
api_key="你的key"
)
response = client.chat.completions.create(
model="Qwen/Qwen3.5-397B-A17B",
messages=[{"role": "user", "content": "帮我写一段Python排序代码"}]
)
print(response.choices[0].message.content)
跑起来就是你的免费大模型了。
为什么现在冲特别值
说实话,免费无限量调用400B级别模型的机会真不多见。
GLM-5来自智谱系,擅长中文理解和复杂推理;Qwen3.5系列则是通义千问的最新迭代,代码能力和多语言表现都很强。尤其是那个397B的MoE版本,参数规模摆在那里,处理长文档、深度代码分析这种重活,表现往往比小模型稳得多。
以前想试这些模型,要么本地搭环境(要好几张A100),要么去官方平台排队付费。现在AtomGit直接把接口敞开了,等于把门槛拉到最低。
对开发者来说,意义特别大:
- • 写代码时直接扔给模型审查
- • 处理海量日志或文档总结
- • 原型验证新想法,不用担心token费用
- • 个人项目、学习研究随便造
就算只是好奇想试试400B模型的真实水平,现在也是最佳窗口期。
注意事项,别踩坑
虽然福利香,但有几点要提前知道。
第一,流量大导致偶尔调用失败。作者测试时就遇到过。建议错峰用,或者多试几次。
第二,上下文窗口显示只有16K的问题。可能是临时设置,也可能是客户端适配还没跟上。实际能用多少,还需要大家自己测测反馈。
第三,这是限时活动。官网没说具体截止时间,所以“先注册了再说”绝对是正确操作。积分和key早领早安心。
第四,模型名字里带A10B、A17B的,是MoE结构,激活参数少但总参数多,实际效果和全参数模型接近,但推理速度可能更快。
用的时候记得把key保管好,别随便分享。平台虽然免费,但滥用肯定会有风控。
转自:https://mp.weixin.qq.com/s/CevKxyBK-YmEPqz3-UqYcw