Ollama 云模型免费申请与使用全攻略
- 免费干货
- 10小时前
- 8热度
- 0评论
不用科学上网、不用本地高配显卡,Ollama云端大模型直接白嫖!
前排提醒:本文仅为个人使用经验分享,不构成任何建议,请理性使用。
写在前面
上一篇我们分享了美团LongCat的免费大模型API(没看过的同学可以往前翻翻)。今天继续「免费AI宝藏图鉴」系列,带来另一个免科学上网、注册即用的免费大模型方案——Ollama云模型。
很多同学对Ollama的印象还停留在"本地部署大模型"上,但说实话,本地跑大模型对硬件门槛不低,8G显存也只能勉强跑跑简单模型,效果还不如直接用在线服务,比如DeepSeek、千问、豆包等。
所以今天要聊的是Ollama的云端模型——模型在云端运行,你只需要一个账号就能免费用,对机器配置几乎零要求。
🎯 Ollama 云模型是什么?
Ollama 是一个知名的大模型运行平台,除了本地部署模式外,还提供了云端模型服务。
核心亮点:
- 🌐 不用科学上网,国内网络直连即可注册和使用
- 💰 免费额度充足,按会话和每周双重限额,日常使用完全够
- 🔧 兼容 OpenAI | Anthropic 接口协议,接入各种工具和应用零障碍
- 📦 客户端支持 Windows / macOS / Linux,多平台无缝切换
免费额度方面,虽然不如美团LongCat那么夸张,但应付日常轻量对话、测试、小工具开发绰绰有余,但优势在于其模型质量强度比美团略好。
💡 小贴士: 如果你重度使用且有条件,可以付费购买套餐($20起),但本文只聊免费部分。
📝 一、注册账号
第一步:访问官网
ollama 官网:https://ollama.com/

第二步:下载客户端 + 注册账号
官网右上角有两个按钮:Download(下载) 和 Sign in(登录),两个都要点。

下载客户端:
点击 Download 进入下载页面,根据你的系统选择版本。

⚠️ 注意: macOS 需要 14及以上版本,低版本系统请使用 Windows 或 Linux。如果你熟悉命令行或 Docker,也可以用脚本或容器方式安装,这里不展开赘述。
注册账号:
回到首页,点击右上角 Sign in 按钮。

点击注册,进入注册页面。

注册方式建议:
- ✅ 首选: GitHub 或 Google 账号直接授权登录,不需要绑定手机号,最方便
- ✅ 备选: 163等邮箱均可注册,国内可用,但需要一个手机号绑定一个账号
- ❌ 不推荐: 国内网络下用国外账号注册,后续登录可能不稳定
注册流程:
- 填写邮箱地址
- 接收并输入邮箱验证码
- 输入手机号码(区号务必改成 +86)
- 接收并输入短信验证码

⚠️ 注意:
- 短信验证码可能需要点击多次才能收到,耐心重试即可
- 注册过程中千万不要切换VPN或网络,否则可能被识别为机器人或异常注册
- 建议全程使用同一网络环境完成注册
注册完成后,登录即可看到控制台页面 ✅

🔑 二、申请 API Key
💡 如果你只是想聊天体验,直接用客户端就行,不需要 API Key。但如果你想接入到自己的应用或工具中,就需要申请 API Key。
第一步:创建 API Key
在控制台页面,点击进入 Cloud API access。

点击 Add API Key。

输入一个名称(随便取,方便你辨识就行),然后生成 Key。

⚠️ 重要:API Key 生成后可复制保存,可重复查看不用担心!
📊 三、查看用量与限额
点击 Usage 页面,可以看到你的使用量,包含两个维度:
- 会话使用限额: 单次会话5小时内的使用上限
- 每周使用限额: 每周可使用的总量上限

💡 小贴士: 免费额度每周刷新一次,合理规划使用节奏即可。
🤖 四、选择云端模型
第一步:进入模型列表
点击页面左上角 Models。

进入模型列表后,点击 cloud 标签,过滤出所有云端可用模型。

第二步:选择合适的模型
模型列表中,每个模型都有蓝色标签标注其能力:
| 标签 | 说明 |
|---|---|
| thinking | 支持深度思考(推理链) |
| tools | 支持工具调用(Function Calling) |
| audio | vision | 支持多模态(语音/图像) |
根据你的使用场景选择合适的模型:
- 💬 日常对话 → 选通用对话模型
- 💻 编程辅助 → 选代码能力强的模型
- 🧠 深度推理 → 选带 thinking 标签的模型
- 🔧 工具调用 → 选带 tools 标签的模型

第三步:查看模型名称
以 minimax-m2.7 为例,点击进入模型详情页,记下云端模型名称,后续配置需要用到。

📥 五、下载云模型到客户端
打开之前安装好的 Ollama 客户端,登录你的账号。
点击模型下拉列表。

关键操作:
- ✅ 下载后带 ☁️ 云朵标识 的模型,即云模型
- ❌ 不要下载不带 cloud 后缀的模型——那些是本地模型,没有足够显存跑不起来,还白白占用硬盘空间
- 云模型本质上只是一个引用文件,通常只有几百KB,非常轻量

⚠️ 如果看不到云模型,请到 Settings 中开启 Cloud(Enable cloud models and web search)选项。
下载完成后,你就可以在客户端中直接对话使用了。
🔌 六、接入外部应用
如果你只是聊天,客户端就够用了。但如果你想把 Ollama 云模型接入到自己的应用或工具中,就需要用到它的 API 接口。
Ollama 的接口兼容 OpenAI 和 Anthropic 两大主流协议:
# 兼容 OpenAI 协议
http://127.0.0.1:11434/v1
# 兼容 Anthropic 协议(默认接口)
http://localhost:11434
📖 更多接口配置细节请参考官方文档:https://docs.ollama.com/
⚙️ 七、客户端配置建议
打开 Ollama 的 Settings 页面,以下几个配置项建议根据自身情况调整:

| 配置项 | 说明 | 建议 |
|---|---|---|
| Cloud | 启用云模型和网页搜索 | ✅ 必须开启 |
| Auto-download updates | 自动下载更新包(不会自动安装) | 按需开启,建议开 |
| Expose to network | 允许局域网其他设备访问 | ❌ 建议关闭,避免安全风险 |
| Model location | 模型存储路径 | 保持默认即可 |
| Context length | 上下文长度 | ⚠️ 仅对本地模型生效,云模型忽略 |
⚠️ 安全提醒: 如果你用于生产环境或有重要资料,务必关闭网络暴露,避免被未授权设备访问。
⚠️ 八、使用注意事项(必读!)
1. 云模型 vs 本地模型
- 云模型(带☁️标识)→ 免费、不占空间、无需高配,推荐绝大多数用户使用
- 本地模型 → 需要足够的显存和算力,8G显存也只能跑简单模型
- 没有高配显卡的同学,老老实实用云模型
2. 注册注意事项
- 注册全程使用同一网络环境,不要中途切换VPN
- 短信验证码收不到时多点几次,不要频繁切换页面
- 用国内邮箱(如163)注册,避免后续登录困难
3. 安全第一
- ❌ 绝对不要泄露你的 API Key
- ❌ 不要在对话中输入个人隐私信息
- ❌ 不要将 Ollama 服务暴露到公网
- ❌ 不要配置到具有高级系统权限的自动化工具中
4. 适合做什么
- ✅ 日常对话、知识问答
- ✅ 轻量编程辅助
- ✅ API 学习和接口测试
- ✅ 小工具、Demo 开发
- ❌ 生产级应用(稳定性无保证)
- ❌ 高强度自动化任务
- ❌ 处理敏感业务数据
5. 合理使用,心存感恩
- 🙏 感谢 Ollama 提供免费的云端模型服务
- 💡 有条件的朋友觉得好用,可以考虑付费支持
- 📏 按需使用,不要恶意刷量或滥用资源
💬 写在最后
Ollama 云模型为那些没有高配硬件、又想体验大模型能力的朋友打开了一扇窗。虽然免费额度有上限,但对于日常学习和测试来说已经非常慷慨。
加上它兼容 OpenAI 接口协议,接入成本几乎为零——这对刚入门大模型API的同学来说,是一个非常好的练习场。
转自:https://mp.weixin.qq.com/s/rvnPyYCbAY1PhhvnLHFZ7g