龙虾吃穷了云厂商:AI 算力涨价潮背后的 Token 经济学
腾讯云涨价 463%、阿里云百度云同日官宣、京东云逆势喊话不跟。龙虾掀起的 Token 狂潮,正在终结中国云计算长达二十年的降价神话。深度拆解这波涨价的底层逻辑。

三天前我刚写完 GTC 2026 的深度解读,黄仁勋喊出"Token 工厂经济学"和"万亿美元需求"时,我还觉得这是属于硅谷的远方叙事。
没想到,Token 涨价的第一枪,率先在中国打响了。
3 月 13 日,腾讯云上调混元系列模型价格,最高涨幅 463%。
3 月 18 日,阿里云和百度智能云同一天发布调价公告,AI 算力产品最高涨幅 34%。
3 月 18 日晚间,京东云紧急发文:全系核心产品不涨价,还要降价。
一周之内,四家云厂商先后表态。中国云计算长达二十年的"价格战"传统,在 2026 年的春天画上了一个令人意外的句号。
而这一切的导火索,是那只我们再熟悉不过的龙虾。
涨了多少?一张表看清全局
先把这波涨价的时间线和幅度捋清楚:
| 时间 | 云厂商 | 涨价内容 | 涨幅 |
|---|---|---|---|
| 3月13日 | 腾讯云 | 混元 HY2.0 Instruct 输入价格 0.0008→0.004505 元/千Token | +463% |
| 3月13日 | 腾讯云 | 混元 HY2.0 Think 同步调价;GLM 5、MiniMax 2.5、Kimi 2.5 结束免费公测 | — |
| 3月18日 | 阿里云 | 平头哥真武810E 等算力卡产品上调 5%—34%;CPFS(智算版)上调 30% | 最高+34% |
| 3月18日 | 百度智能云 | AI 算力相关产品上调 5%—30%;并行文件存储上调约 30% | 最高+30% |
| 3月18日 | 京东云 | 全系不涨价,数据库、中间件等产品降价,平均降幅 16%,最高降 40% | 逆势降价 |
注意两个细节:
第一,腾讯涨的是模型 API 价格(Token 单价),阿里云和百度涨的是底层算力和存储(GPU 租金)。一个动的是"面包价",一个动的是"面粉价"。但最终传导到用户端的效果一样——用 AI 变贵了。
第二,腾讯不只涨了自家模型,还顺手把平台上代理的三家模型(GLM 5、MiniMax 2.5、Kimi 2.5)从免费变成了收费。"免费午餐"时代,结束了。
为什么是现在?龙虾的"Token 黑洞"效应

所有公告里都提到了同一个原因:"全球 AI 需求爆发。"
但翻译成大白话:是龙虾把云厂商的算力吃穷了。
让我们算一笔账。
过去你用 ChatGPT,典型的交互是"一问一答":你输入一段话(几百个 Token),AI 输出一段话(几百到几千个 Token)。一次对话消耗的 Token 量大约在几千到一两万。
但 OpenClaw(龙虾)的工作模式完全不同。它是一个自主执行任务的智能体,一个稍微复杂的任务——比如"帮我整理这 50 封邮件,分类后逐封回复"——Agent 要完成以下步骤:
- 理解任务意图(调用模型)
- 读取每封邮件内容(调用模型)
- 分析邮件类型和优先级(调用模型)
- 制定分类方案(调用模型)
- 为每封邮件生成回复草稿(调用模型 ×50)
- 校对和润色(调用模型 ×50)
- 执行发送操作(调用工具 + 模型确认)
一个任务,背后可能是上百次模型调用,消耗几十万甚至上百万个 Token。
根据行业数据,OpenClaw 用户的单日人均 Token 消耗量是传统聊天用户的 20-50 倍。而自 2 月底龙虾爆火以来,国内 AI 模型调用量自春节后持续飙升,阿里云百炼平台在 1-3 月创下了历史最高增速。
OpenRouter 平台的数据更直观:截至 3 月 15 日,中国 AI 大模型的周调用量已连续两周超过美国。其中仅小米 MiMo-V2-Pro(以匿名代号 Hunter Alpha 上线)一个模型,一周调用量就达到了 0.666 万亿 Token。
一万亿 Token 是什么概念?如果按 GPT-5.4 旗舰版 2.5 美元/百万 Token 的输入价格算,光输入成本就是 166 万美元。一周。一个模型。
这就是为什么云厂商扛不住了。
二十年降价史的终结

要理解这次涨价有多"反常",需要看看中国云计算过去二十年的价格趋势。
自 2006 年阿里云成立以来,中国云市场的主旋律一直是**"卷价格"**。2020 年的"百团大战"时期,各家云厂商甚至以低于成本的价格抢客户,存储降价 90%、带宽降价 70% 是常规操作。这是一个供给驱动的市场——厂商拼命建数据中心、扩容量、压价格,用规模效应换市场份额。
但龙虾改变了供需关系。
过去,云计算的主要客户是企业的 IT 部门,需求相对稳定、可预测。但当 AI Agent 直接面向 C 端用户,每个人的手机里都在"养龙虾"时,需求变成了脉冲式爆发、不可预测、且弹性极大。
更要命的是,AI 推理算力和传统云计算算力有一个关键区别:GPU 不像 CPU 那样可以快速扩容。英伟达的高端 GPU 产能有限,从下单到交付动辄半年以上,而且 2025 年下半年存储芯片进入涨价周期,硬件采购成本本身也在上涨。
供给跟不上,需求在暴涨——经济学最基本的供需定律,把云厂商推向了一个二十年来从未面对过的局面:必须涨价。
京东云的"逆势操作"怎么看?
在三大云厂商集体涨价时,京东云高调喊出"不跟风",全系不涨价还降价,颇有几分"趁你病要你命"的味道。
但仔细想想,京东云的底气在于它的 AI 业务体量相对较小。阿里云的百炼 MaaS 平台承载了全国最大的模型调用量,腾讯云有 WorkBuddy 和 QClaw 两大 Agent 产品在消耗算力,百度有文心一言的庞大用户群。这三家是真的被"吃"了。
京东云的算力压力没那么大,用"不涨价"打差异化营销,吸引被涨价劝退的中小客户迁移过来——这是一步好棋。但如果 AI Agent 的浪潮继续扩大,京东云迟早也要面对同样的成本压力。
全球视角:不只是中国在涨
这不是中国独有的现象。放眼全球,Token 涨价潮正在各个市场蔓延:
- OpenAI:GPT-5.4 旗舰版输入价格 2.5 美元/百万 Token,输出 10 美元/百万 Token。为了缓解成本焦虑,紧急推出了 mini(输入 0.75 美元)和 nano(输入 0.2 美元)两款小模型
- 亚马逊 AWS、谷歌云:今年以来均完成了 AI 算力相关产品的价格上调
- Anthropic:Claude Opus 4.6 的 API 价格维持在输入 5 美元/百万 Token、输出 25 美元/百万 Token 的高位
正如黄仁勋在 GTC 上说的:"未来每位工程师除了拥有年薪,还将拥有年度 Token 预算。" 这句话正在加速变为现实——只不过,预算额度可能比大家想象的要高不少。
Agent 时代的成本结构:谁来买单?

OpenAI 其实已经给出了一个聪明的应对方案——"模型分层"。
GPT-5.4 不是一个模型,而是一个家族:
| 模型 | 输入价格 | 输出价格 | 定位 |
|---|---|---|---|
| GPT-5.4(旗舰) | $2.5/百万Token | $10/百万Token | 复杂推理、关键决策 |
| GPT-5.4 mini | $0.75/百万Token | $3/百万Token | 日常任务、批量处理 |
| GPT-5.4 nano | $0.2/百万Token | $0.8/百万Token | 高频调用、嵌入场景 |
这意味着一个设计良好的 Agent 不应该每一步都调用旗舰模型。理想的架构是:
- nano 处理简单判断和路由("这封邮件是什么类型?")
- mini 处理日常生成("帮这封邮件写个回复")
- 旗舰版 只在关键节点出场("这个合同条款有没有法律风险?")
这种"大小模型协同"的架构,我在之前的 OpenClaw 源码解读中分析过——OpenClaw 的 Task Router 模块就是干这个的,根据任务复杂度动态选择模型。
未来 Agent 的核心竞争力,不仅仅是"能干什么",还有"干同样的事,谁更省 Token"。
对普通用户意味着什么?
说几个实际影响:
1. "免费养虾"的窗口期正在关闭。 各大平台的免费额度会越来越少、限制越来越多。如果你还没开始用 Agent,现在是最后的"低价尝鲜"阶段。
2. 本地部署的价值在上升。 云端 Token 越贵,本地跑模型就越划算。英伟达刚发布的 DGX Spark(3000 美元桌面超算)和各种本地部署方案(NemoClaw、AutoClaw),在涨价背景下吸引力翻倍。
3. 选模型变成了一门"理财"。 过去我们选模型只看"谁更聪明",以后还要看"谁更省钱"。MiMo-V2-Pro 为什么在 OpenRouter 上调用量登顶?不只是因为强,还因为性价比高。
4. 企业用户需要重新算 ROI。 如果你的公司正在部署 AI Agent,算力成本的涨幅需要纳入长期预算。一个好消息是,随着 Vera Rubin 平台的落地(推理成本降 90%),这波涨价可能是"黎明前的黑暗"。
老金说几句
写了八篇龙虾源码解读,又写了 GTC 和龙虾大战,今天这篇算是站在产业经济的角度把这些线索串了起来。
过去两年 AI 行业的叙事是"降本增效"——模型越来越强、价格越来越低、门槛越来越矮。这个趋势在供给侧(英伟达的新芯片)依然成立,但在需求侧(龙虾引爆的 Token 消耗),供需缺口正在被急剧放大。
这其实是一个好信号。经济学里有个概念叫"杰文斯悖论"——当一种资源的使用效率提高时,人们不会节约它,反而会消耗更多。蒸汽机效率提升没有减少煤炭消耗,反而让煤炭需求暴涨。AI 推理效率的提升(每瓦 Token 吞吐量 ×35),不会减少算力需求,反而会让 Agent 做更多事、消耗更多 Token。
这就是黄仁勋敢喊"万亿美元"的底层逻辑。
云厂商涨价不是坏事——它意味着 AI 已经从"补贴换用户"的烧钱阶段,进入了"用户愿意为价值付费"的商业化阶段。Token 有了真实的价格,AI 就有了真实的经济体系。
至于我们这些养虾的人,记住一句话:饲料涨价了,但龙虾还是要养的。
只是得学会精打细算了。