返回博客

龙虾吃穷了云厂商:AI 算力涨价潮背后的 Token 经济学

2026年3月20日

腾讯云涨价 463%、阿里云百度云同日官宣、京东云逆势喊话不跟。龙虾掀起的 Token 狂潮,正在终结中国云计算长达二十年的降价神话。深度拆解这波涨价的底层逻辑。


龙虾吃穷了云厂商

三天前我刚写完 GTC 2026 的深度解读,黄仁勋喊出"Token 工厂经济学"和"万亿美元需求"时,我还觉得这是属于硅谷的远方叙事。

没想到,Token 涨价的第一枪,率先在中国打响了。

3 月 13 日,腾讯云上调混元系列模型价格,最高涨幅 463%

3 月 18 日,阿里云和百度智能云同一天发布调价公告,AI 算力产品最高涨幅 34%

3 月 18 日晚间,京东云紧急发文:全系核心产品不涨价,还要降价。

一周之内,四家云厂商先后表态。中国云计算长达二十年的"价格战"传统,在 2026 年的春天画上了一个令人意外的句号。

而这一切的导火索,是那只我们再熟悉不过的龙虾。


涨了多少?一张表看清全局

先把这波涨价的时间线和幅度捋清楚:

时间云厂商涨价内容涨幅
3月13日腾讯云混元 HY2.0 Instruct 输入价格 0.0008→0.004505 元/千Token+463%
3月13日腾讯云混元 HY2.0 Think 同步调价;GLM 5、MiniMax 2.5、Kimi 2.5 结束免费公测
3月18日阿里云平头哥真武810E 等算力卡产品上调 5%—34%;CPFS(智算版)上调 30%最高+34%
3月18日百度智能云AI 算力相关产品上调 5%—30%;并行文件存储上调约 30%最高+30%
3月18日京东云全系不涨价,数据库、中间件等产品降价,平均降幅 16%,最高降 40%逆势降价

注意两个细节:

第一,腾讯涨的是模型 API 价格(Token 单价),阿里云和百度涨的是底层算力和存储(GPU 租金)。一个动的是"面包价",一个动的是"面粉价"。但最终传导到用户端的效果一样——用 AI 变贵了。

第二,腾讯不只涨了自家模型,还顺手把平台上代理的三家模型(GLM 5、MiniMax 2.5、Kimi 2.5)从免费变成了收费。"免费午餐"时代,结束了。


为什么是现在?龙虾的"Token 黑洞"效应

聊天 vs Agent 的Token消耗对比

所有公告里都提到了同一个原因:"全球 AI 需求爆发。"

但翻译成大白话:是龙虾把云厂商的算力吃穷了。

让我们算一笔账。

过去你用 ChatGPT,典型的交互是"一问一答":你输入一段话(几百个 Token),AI 输出一段话(几百到几千个 Token)。一次对话消耗的 Token 量大约在几千到一两万。

但 OpenClaw(龙虾)的工作模式完全不同。它是一个自主执行任务的智能体,一个稍微复杂的任务——比如"帮我整理这 50 封邮件,分类后逐封回复"——Agent 要完成以下步骤:

  1. 理解任务意图(调用模型)
  2. 读取每封邮件内容(调用模型)
  3. 分析邮件类型和优先级(调用模型)
  4. 制定分类方案(调用模型)
  5. 为每封邮件生成回复草稿(调用模型 ×50)
  6. 校对和润色(调用模型 ×50)
  7. 执行发送操作(调用工具 + 模型确认)

一个任务,背后可能是上百次模型调用,消耗几十万甚至上百万个 Token。

根据行业数据,OpenClaw 用户的单日人均 Token 消耗量是传统聊天用户的 20-50 倍。而自 2 月底龙虾爆火以来,国内 AI 模型调用量自春节后持续飙升,阿里云百炼平台在 1-3 月创下了历史最高增速。

OpenRouter 平台的数据更直观:截至 3 月 15 日,中国 AI 大模型的周调用量已连续两周超过美国。其中仅小米 MiMo-V2-Pro(以匿名代号 Hunter Alpha 上线)一个模型,一周调用量就达到了 0.666 万亿 Token。

一万亿 Token 是什么概念?如果按 GPT-5.4 旗舰版 2.5 美元/百万 Token 的输入价格算,光输入成本就是 166 万美元。一周。一个模型。

这就是为什么云厂商扛不住了。


二十年降价史的终结

云计算价格拐点

要理解这次涨价有多"反常",需要看看中国云计算过去二十年的价格趋势。

自 2006 年阿里云成立以来,中国云市场的主旋律一直是**"卷价格"**。2020 年的"百团大战"时期,各家云厂商甚至以低于成本的价格抢客户,存储降价 90%、带宽降价 70% 是常规操作。这是一个供给驱动的市场——厂商拼命建数据中心、扩容量、压价格,用规模效应换市场份额。

但龙虾改变了供需关系。

过去,云计算的主要客户是企业的 IT 部门,需求相对稳定、可预测。但当 AI Agent 直接面向 C 端用户,每个人的手机里都在"养龙虾"时,需求变成了脉冲式爆发、不可预测、且弹性极大

更要命的是,AI 推理算力和传统云计算算力有一个关键区别:GPU 不像 CPU 那样可以快速扩容。英伟达的高端 GPU 产能有限,从下单到交付动辄半年以上,而且 2025 年下半年存储芯片进入涨价周期,硬件采购成本本身也在上涨。

供给跟不上,需求在暴涨——经济学最基本的供需定律,把云厂商推向了一个二十年来从未面对过的局面:必须涨价。


京东云的"逆势操作"怎么看?

在三大云厂商集体涨价时,京东云高调喊出"不跟风",全系不涨价还降价,颇有几分"趁你病要你命"的味道。

但仔细想想,京东云的底气在于它的 AI 业务体量相对较小。阿里云的百炼 MaaS 平台承载了全国最大的模型调用量,腾讯云有 WorkBuddy 和 QClaw 两大 Agent 产品在消耗算力,百度有文心一言的庞大用户群。这三家是真的被"吃"了。

京东云的算力压力没那么大,用"不涨价"打差异化营销,吸引被涨价劝退的中小客户迁移过来——这是一步好棋。但如果 AI Agent 的浪潮继续扩大,京东云迟早也要面对同样的成本压力。


全球视角:不只是中国在涨

这不是中国独有的现象。放眼全球,Token 涨价潮正在各个市场蔓延:

  • OpenAI:GPT-5.4 旗舰版输入价格 2.5 美元/百万 Token,输出 10 美元/百万 Token。为了缓解成本焦虑,紧急推出了 mini(输入 0.75 美元)和 nano(输入 0.2 美元)两款小模型
  • 亚马逊 AWS、谷歌云:今年以来均完成了 AI 算力相关产品的价格上调
  • Anthropic:Claude Opus 4.6 的 API 价格维持在输入 5 美元/百万 Token、输出 25 美元/百万 Token 的高位

正如黄仁勋在 GTC 上说的:"未来每位工程师除了拥有年薪,还将拥有年度 Token 预算。" 这句话正在加速变为现实——只不过,预算额度可能比大家想象的要高不少。


Agent 时代的成本结构:谁来买单?

Token 经济学

OpenAI 其实已经给出了一个聪明的应对方案——"模型分层"

GPT-5.4 不是一个模型,而是一个家族:

模型输入价格输出价格定位
GPT-5.4(旗舰)$2.5/百万Token$10/百万Token复杂推理、关键决策
GPT-5.4 mini$0.75/百万Token$3/百万Token日常任务、批量处理
GPT-5.4 nano$0.2/百万Token$0.8/百万Token高频调用、嵌入场景

这意味着一个设计良好的 Agent 不应该每一步都调用旗舰模型。理想的架构是:

  • nano 处理简单判断和路由("这封邮件是什么类型?")
  • mini 处理日常生成("帮这封邮件写个回复")
  • 旗舰版 只在关键节点出场("这个合同条款有没有法律风险?")

这种"大小模型协同"的架构,我在之前的 OpenClaw 源码解读中分析过——OpenClaw 的 Task Router 模块就是干这个的,根据任务复杂度动态选择模型。

未来 Agent 的核心竞争力,不仅仅是"能干什么",还有"干同样的事,谁更省 Token"。


对普通用户意味着什么?

说几个实际影响:

1. "免费养虾"的窗口期正在关闭。 各大平台的免费额度会越来越少、限制越来越多。如果你还没开始用 Agent,现在是最后的"低价尝鲜"阶段。

2. 本地部署的价值在上升。 云端 Token 越贵,本地跑模型就越划算。英伟达刚发布的 DGX Spark(3000 美元桌面超算)和各种本地部署方案(NemoClaw、AutoClaw),在涨价背景下吸引力翻倍。

3. 选模型变成了一门"理财"。 过去我们选模型只看"谁更聪明",以后还要看"谁更省钱"。MiMo-V2-Pro 为什么在 OpenRouter 上调用量登顶?不只是因为强,还因为性价比高。

4. 企业用户需要重新算 ROI。 如果你的公司正在部署 AI Agent,算力成本的涨幅需要纳入长期预算。一个好消息是,随着 Vera Rubin 平台的落地(推理成本降 90%),这波涨价可能是"黎明前的黑暗"。


老金说几句

写了八篇龙虾源码解读,又写了 GTC 和龙虾大战,今天这篇算是站在产业经济的角度把这些线索串了起来。

过去两年 AI 行业的叙事是"降本增效"——模型越来越强、价格越来越低、门槛越来越矮。这个趋势在供给侧(英伟达的新芯片)依然成立,但在需求侧(龙虾引爆的 Token 消耗),供需缺口正在被急剧放大。

这其实是一个好信号。经济学里有个概念叫"杰文斯悖论"——当一种资源的使用效率提高时,人们不会节约它,反而会消耗更多。蒸汽机效率提升没有减少煤炭消耗,反而让煤炭需求暴涨。AI 推理效率的提升(每瓦 Token 吞吐量 ×35),不会减少算力需求,反而会让 Agent 做更多事、消耗更多 Token。

这就是黄仁勋敢喊"万亿美元"的底层逻辑。

云厂商涨价不是坏事——它意味着 AI 已经从"补贴换用户"的烧钱阶段,进入了"用户愿意为价值付费"的商业化阶段。Token 有了真实的价格,AI 就有了真实的经济体系。

至于我们这些养虾的人,记住一句话:饲料涨价了,但龙虾还是要养的。

只是得学会精打细算了。