Ollama 云模型免费申请与使用全攻略

摘要: 不用科学上网、不用本地高配显卡,Ollama云端大模型直接白嫖! 前排提醒:本文仅为个人使用经验分享,不构成任何建议,请理性使用。 写在前面 上一篇我们分享了美团LongCat的免费大模型API(没看过的同学可以往前翻翻)。今天继续「免费AI宝藏图鉴」系列,带来另一个免科学上网、注册即用的免费大模型...

不用科学上网、不用本地高配显卡,Ollama云端大模型直接白嫖!
前排提醒:本文仅为个人使用经验分享,不构成任何建议,请理性使用。

写在前面

上一篇我们分享了美团LongCat的免费大模型API(没看过的同学可以往前翻翻)。今天继续「免费AI宝藏图鉴」系列,带来另一个免科学上网、注册即用的免费大模型方案——Ollama云模型

很多同学对Ollama的印象还停留在"本地部署大模型"上,但说实话,本地跑大模型对硬件门槛不低,8G显存也只能勉强跑跑简单模型,效果还不如直接用在线服务,比如DeepSeek、千问、豆包等。

所以今天要聊的是Ollama的云端模型——模型在云端运行,你只需要一个账号就能免费用,对机器配置几乎零要求

🎯 Ollama 云模型是什么?

Ollama 是一个知名的大模型运行平台,除了本地部署模式外,还提供了云端模型服务

核心亮点:

  • 🌐 不用科学上网,国内网络直连即可注册和使用
  • 💰 免费额度充足,按会话和每周双重限额,日常使用完全够
  • 🔧 兼容 OpenAI | Anthropic 接口协议,接入各种工具和应用零障碍
  • 📦 客户端支持 Windows / macOS / Linux,多平台无缝切换

免费额度方面,虽然不如美团LongCat那么夸张,但应付日常轻量对话、测试、小工具开发绰绰有余,但优势在于其模型质量强度比美团略好。

💡 小贴士: 如果你重度使用且有条件,可以付费购买套餐($20起),但本文只聊免费部分。

📝 一、注册账号

第一步:访问官网

ollama 官网:https://ollama.com/


第二步:下载客户端 + 注册账号

官网右上角有两个按钮:Download(下载) 和 Sign in(登录),两个都要点。


下载客户端:

点击 Download 进入下载页面,根据你的系统选择版本。

⚠️ 注意: macOS 需要 14及以上版本,低版本系统请使用 Windows 或 Linux。如果你熟悉命令行或 Docker,也可以用脚本或容器方式安装,这里不展开赘述。

注册账号:

回到首页,点击右上角 Sign in 按钮。


点击注册,进入注册页面。


注册方式建议:

  • ✅ 首选: GitHub 或 Google 账号直接授权登录,不需要绑定手机号,最方便
  • ✅ 备选: 163等邮箱均可注册,国内可用,但需要一个手机号绑定一个账号
  • ❌ 不推荐: 国内网络下用国外账号注册,后续登录可能不稳定

注册流程:

  1. 填写邮箱地址
  2. 接收并输入邮箱验证码
  3. 输入手机号码(区号务必改成 +86
  4. 接收并输入短信验证码

⚠️ 注意:

  • 短信验证码可能需要点击多次才能收到,耐心重试即可
  • 注册过程中千万不要切换VPN或网络,否则可能被识别为机器人或异常注册
  • 建议全程使用同一网络环境完成注册

注册完成后,登录即可看到控制台页面 ✅

🔑 二、申请 API Key

💡 如果你只是想聊天体验,直接用客户端就行,不需要 API Key。但如果你想接入到自己的应用或工具中,就需要申请 API Key。

第一步:创建 API Key

在控制台页面,点击进入 Cloud API access。


点击 Add API Key


输入一个名称(随便取,方便你辨识就行),然后生成 Key。

⚠️ 重要:API Key 生成后可复制保存,可重复查看不用担心!

📊 三、查看用量与限额

点击 Usage 页面,可以看到你的使用量,包含两个维度:

  • 会话使用限额: 单次会话5小时内的使用上限
  • 每周使用限额: 每周可使用的总量上限

💡 小贴士: 免费额度每周刷新一次,合理规划使用节奏即可。

🤖 四、选择云端模型

第一步:进入模型列表

点击页面左上角 Models


进入模型列表后,点击 cloud 标签,过滤出所有云端可用模型。


第二步:选择合适的模型

模型列表中,每个模型都有蓝色标签标注其能力:

标签 说明
thinking 支持深度思考(推理链)
tools 支持工具调用(Function Calling)
audio | vision 支持多模态(语音/图像)

根据你的使用场景选择合适的模型:

  • 💬 日常对话 → 选通用对话模型
  • 💻 编程辅助 → 选代码能力强的模型
  • 🧠 深度推理 → 选带 thinking 标签的模型
  • 🔧 工具调用 → 选带 tools 标签的模型


第三步:查看模型名称

以 minimax-m2.7 为例,点击进入模型详情页,记下云端模型名称,后续配置需要用到。

📥 五、下载云模型到客户端

打开之前安装好的 Ollama 客户端,登录你的账号。

点击模型下拉列表。


关键操作:

  • ✅ 下载后带 ☁️ 云朵标识 的模型,即云模型
  • ❌ 不要下载不带 cloud 后缀的模型——那些是本地模型,没有足够显存跑不起来,还白白占用硬盘空间
  • 云模型本质上只是一个引用文件,通常只有几百KB,非常轻量

⚠️ 如果看不到云模型,请到 Settings 中开启 Cloud(Enable cloud models and web search)选项。

下载完成后,你就可以在客户端中直接对话使用了。

🔌 六、接入外部应用

如果你只是聊天,客户端就够用了。但如果你想把 Ollama 云模型接入到自己的应用或工具中,就需要用到它的 API 接口。

Ollama 的接口兼容 OpenAI 和 Anthropic 两大主流协议

# 兼容 OpenAI 协议
http://127.0.0.1:11434/v1
# 兼容 Anthropic 协议(默认接口)
http://localhost:11434

 

📖 更多接口配置细节请参考官方文档:https://docs.ollama.com/

⚙️ 七、客户端配置建议

打开 Ollama 的 Settings 页面,以下几个配置项建议根据自身情况调整:

配置项 说明 建议
Cloud 启用云模型和网页搜索 ✅ 必须开启
Auto-download updates 自动下载更新包(不会自动安装) 按需开启,建议开
Expose to network 允许局域网其他设备访问 ❌ 建议关闭,避免安全风险
Model location 模型存储路径 保持默认即可
Context length 上下文长度 ⚠️ 仅对本地模型生效,云模型忽略

⚠️ 安全提醒: 如果你用于生产环境或有重要资料,务必关闭网络暴露,避免被未授权设备访问。

⚠️ 八、使用注意事项(必读!)

1. 云模型 vs 本地模型

  • 云模型(带☁️标识)→ 免费、不占空间、无需高配,推荐绝大多数用户使用
  • 本地模型 → 需要足够的显存和算力,8G显存也只能跑简单模型
  • 没有高配显卡的同学,老老实实用云模型 

2. 注册注意事项

  • 注册全程使用同一网络环境,不要中途切换VPN
  • 短信验证码收不到时多点几次,不要频繁切换页面
  • 用国内邮箱(如163)注册,避免后续登录困难

3. 安全第一

  • ❌ 绝对不要泄露你的 API Key
  • ❌ 不要在对话中输入个人隐私信息
  • ❌ 不要将 Ollama 服务暴露到公网
  • ❌ 不要配置到具有高级系统权限的自动化工具中

4. 适合做什么

  • ✅ 日常对话、知识问答
  • ✅ 轻量编程辅助
  • ✅ API 学习和接口测试
  • ✅ 小工具、Demo 开发
  • ❌ 生产级应用(稳定性无保证)
  • ❌ 高强度自动化任务
  • ❌ 处理敏感业务数据

5. 合理使用,心存感恩

  • 🙏 感谢 Ollama 提供免费的云端模型服务
  • 💡 有条件的朋友觉得好用,可以考虑付费支持
  • 📏 按需使用,不要恶意刷量或滥用资源

💬 写在最后

Ollama 云模型为那些没有高配硬件、又想体验大模型能力的朋友打开了一扇窗。虽然免费额度有上限,但对于日常学习和测试来说已经非常慷慨。

加上它兼容 OpenAI 接口协议,接入成本几乎为零——这对刚入门大模型API的同学来说,是一个非常好的练习场。

转自:https://mp.weixin.qq.com/s/rvnPyYCbAY1PhhvnLHFZ7g