中文 / EN ↗
v0.5 · 新增 §4 消费端数据(CapEx vs Revenue, 2026 Q1)

AI 时代的 Token 经济学

从物理算力到终端用户:以"交易单位"为分层标准的 4 层价值链 · 附消费端数据透视

研究:Jimmy · 2026-05-11 · 数据基于 2026 Q1 财报(Apr 29, 2026)+ 公开披露

这份研究的主线是 Token 的生产与消费。最终目标:从底层算力到终端售价, 看清每一环节的价值如何被分配,谁吃走了大头。

v0.2 的关键变化是确立了一个组织原则: 每一层用"输出的交易单位"作为分层标志。 把"层"从"角色名"变成了"刚性标准"——同一交易单位即为同一层。

§ 1组织原则:交易单位定义层

每一层的判定标准不是"做什么",而是"输出什么交易单位"。 交易单位在层与层之间转换,转换发生时即为层界。

输入 关键转换 输出(交易单位)
L1 物理算力 基建 + 芯片 部署 + 集成 GPU + 机柜(实体硬件)
L2 Infra GPU + 机柜 部署 + 运营 GPU Hours(机时)
L3 模型 & API GPU Hours Training(→ 模型权重)+ Inference Token API(per M tokens)
L4 消费层 Token API 批发中转 / 直接销售 / 应用端整合 Token API(Path 1·2 → 开发者)
订阅 + Credit(Path 3 → 终端用户)

§ 2价值链框架图

自上而下,箭头标注每一层之间传递的交易单位。 L3 与 L4 内部各有一条次结构(1P/3P,批发/零售),下文展开。

L1 物理算力层 Physical Infrastructure

最底层硬件实体——基建(机房 / 电力 / 网络)+ AI 芯片本身。输出"物理意义上的算力载体"。

A基建(Infrastructure)

物理空间、稳定供电、高速互联与电气冷却设备——AI 工厂的"地皮 + 神经"。

A.c电气 & 冷却设备 / Power Distribution & Cooling
▸ 电气(UPS / PDU / 配电)
▸ 液冷 · DLC 与冷板(独立玩家几乎全被工业巨头吞并)
▸ 液冷 · 浸没式(独立专业玩家)
▸ 更多长尾玩家(Legrand · Generac · Kohler · JetCool · Chilldyne 等)+ M&A 全景与瓶颈级联分析见 L1 物理算力深度模块
基准 · A 1 MW AI DC 建造总成本:~$20–30M(高密度 AI-optimized,含电气+冷却+网络全栈设备)· PUE 1.1–1.3 · 电价 $0.05–0.12 / kWh · 折旧 20–30 年 · AI rack 密度 30–100+ kW(传统 ~10 kW)
子项占比主要供应商
电气(UPS / PDU / 开关柜 / 配电)40–50%Vertiv · Schneider · Eaton · ABB
冷却(液冷为主)15–20%Vertiv · CoolIT · nVent · Boyd
网络(交换机 + 光模块 + NIC)12–18%Arista · Broadcom · NVIDIA · Coherent · Innolight
建筑壳体15–20%colocation 商 + 总包
设计 / 管理 / 许可5–10%
来源:JLL / CBRE / Synergy Research / Wood Mackenzie / Dell'Oro · Vertiv·Schneider·Arista·Broadcom·Coherent·Innolight Q1 2026 财报(综合估算)
B芯片(AI Accelerators)

把硅片做成 AI 计算单元,按"卡"或"系统"形式销售或自用。

B.bGoogle TPU(自研,自家用 + 通过 GCP 对外)
B.c云厂自研芯片(Amazon · Microsoft,自家 + 部分对外)
基准 · B 主流芯片单卡报价(2026 估算): NVIDIA H100 ~$25–40k · B200 ~$30–50k · GB200 NVL72 rack ~$3M(72 卡)· AMD MI300X ~$20–30k
单卡功耗:H100 700W · B200 1000W · GB200 superchip ~2700W · HBM:H100 80GB · H200 141GB · B200 192GB
折旧周期:5–6 年(hyperscaler 财报披露)—— vs 基建 20–30 年。 同一栋 DC 生命周期里要换 4–5 次 GPU。 来源:MSFT / AMZN 10-K(折旧)· SemiAnalysis · 二手交易市场报道
上游 ▲ 所有 B 类芯片的物理制造都依赖晶圆代工厂——这是 L1 之下的"L0"层。 TSMC · Samsung Foundry
合算 · 1 MW 容量 把 A 基建 + B 芯片 + 电力合在一起算:1 MW AI 容量的全栈年化成本。
项目资本投入折旧期年化成本
基建(DC building)~$15M25 年~$0.6M
GPUs(~750 张 H100 @ $35k)~$26M5 年~$5.2M
电力(1 MW × $0.08/kWh × 8760h)~$0.7M
合计~$41M~$6.5M / 年
推论:单 H100·hour 物理成本下限 ≈ $1.0 / hr($6.5M ÷ 750 卡 ÷ 8760h)。 其中 GPU 折旧占 ~80%,基建 + 电力共 ~20% → L1 总成本由芯片主导
vs L2 New Cloud(CoreWeave / Lambda)H100 reserved ~$2–3/hr → markup 2–3×,毛利 ~50%(与公开财报披露一致)。
交易单位
GPU + 机柜
售卖 / 租赁 · 一次性资本
L2 Infra 层 Providers / Operators

直接拥有并运营 L1 资产,把硬件转换成"机时"对外输出。

交易单位
GPU Hours
$/GPU·hour · 按机时计费
L3 模型 & API 层 Model & API

把 GPU Hours 加工成可调用的 Token API。内部由"训练"和"推理"两条流汇合而成。

内部转换流
输入:GPU Hours
Training
把语料烧成模型权重。一次性 sunk cost,规模动辄数千万到数亿美元。
→ 模型权重(开源 / 闭源)
Inference
把权重 × GPU 转成实时 token 产能。每次调用都是边际成本。
→ 推理产能
▼ 合并 ▼
模型权重 + 推理产能 = Token API
输出:Token API(per M tokens)
玩家分类:1P 与 3P 的成本结构差异巨大

两类玩家最终都"输出 Token API",但承担的成本完全不同——这是后面"价值链验证"必须切清的一刀。

L3a · 1P(自训 + 自营)

承担 Training sunk cost + 自家 Inference 边际成本。定价权强,需摊销训练投入。

基准 · DeepSeek DeepSeek 当 L3 的 break-even 校准点。 开源权重 + 极限压缩(MoE 架构 + 自研推理优化)使其在消耗同等底层 GPU 资源的前提下, 把 API 报价压到 ~$0.14 / $0.28 per M token(input / output)。
用法:把 DeepSeek 视为"零品牌溢价 + 零训练摊销 + 推理效率天花板"下的 break-even 底线。 其他 1P / 3P 报价对比 DeepSeek 的价差 = 各自的品牌溢价 + 训练摊销 + 推理效率损失之和。 后续 L3 markup 测算以 DeepSeek 为校准锚点。
交易单位
Token API
$/M tokens · in / out 分别计费
L4 消费层 Token Consumption

Token API 在这一层被消费。从 L3 进入后,分三条并行脉络流向不同终点—— 一部分仍以 Token API 形态在开发者之间流转,一部分被应用层公司包装成"订阅 + Credit"卖给终端用户。

输入:Token API(来自 L3)
Path 1 批发中转

通过 聚合器(Aggregator)Token 中转站 把 N 家 1P / 3P API 聚到单一接口,再加价转售。

输出 Token API(再加价) 其他开发者
Path 2 直接销售

AI Lab(1P)或 3P 厂商把 Token API 直接卖给开发者,无中间商加价。

输出 Token API(直供) 开发者
Path 3 应用端整合

Token API 进入应用层公司,按行业被包装成具体产品。 这些公司最终以"订阅 + Credit"的形式卖给终端用户—— 整条价值链上加价倍率最高的一段,发生在这里。

通用 Chatbot ChatGPT Claude.ai Gemini Poe
Coding Cursor Windsurf GitHub Copilot Cognition · Devin Replit
法律 Harvey Robin AI Spellbook
PPT / 演示 Gamma Tome Beautiful.ai Prezi Minds
客服 Crescendo Decagon Sierra
搜索 Tavily Perplexity You.com
销售 / 营销 Attentive Postscript Jasper Copy.ai
金融 Surf
AI + Payment Coinbase AgentKit Stripe · Tempo MPP Skyfire Kite AI x402 Protocol
多渠道 IM Tinyfish Locus
Personal Agent Magic Character.ai Pi
笔记 / 写作 Notion AI Granola
输出 订阅 + Credit 终端用户

§ 3穿透关系(Vertical Integration)

交易单位定义了清晰的层界,但头部公司频繁跨层吞并,把上下游收进一家。 在做"价值链验证"时,必须先把这些公司的财务从单层 markup 计算中拆开,否则毛利会被一锅炖。

穿透方向 代表 经济学含义
L3 → L1
AI Lab 自建算力
OpenAI Stargate · Google TPU+DC · Meta 350k H100 · xAI Colossus 大厂跳过 L2,直接采购裸机 / 自建机房。L2 New Cloud 的议价天花板被压低。
L2 → L3b
云厂上探做 API
AWS Bedrock · Azure OpenAI · GCP Vertex L2 用 distribution 把闭源模型打包成 3P API 转售,模糊 1P / 3P 边界,吞掉部分 L3 利润。
L2 + L3b 一体化
独立 3P 内置算力
Together AI · Fireworks · Groq 同一公司同时跨 L2 / L3b。财务上无法把 token 成本切干净,对外报价不会暴露各层 markup。
L1 → L3 / L4
NVIDIA 软件税
NVIDIA NIM · DGX Cloud 硬件厂越过 L2,直接做推理服务和 API 平台。CUDA 锁定向上延伸。
L3a → L4 Path 3
1P 自营终端
OpenAI ChatGPT · Anthropic Claude.ai · Google Gemini app AI Lab 自营终端,把 1P API + 应用包装一手包办。毛利无法外部观察。

§ 4消费端透视:CapEx vs Revenue(2026 Q1)

前三节解决了"层怎么分、谁吞了谁"。这一节回答一个更朴素的问题: 整个产业砸下去的钱,和真正赚回来的钱,差多少倍? 数据基于 2026 Q1 财报(披露于 2026-04-29)与公开承诺,全部金额单位为 USD。

2026E 全球 AI 经济(年化口径) 金额(B = 十亿美元) 说明
全球 AI 基建 CapEx 总投入 ~$1,050B Big 5 + 中国 + Neocloud + Stargate + 主权 AI
Big 5 Hyperscaler 2026 CapEx 指引(合并) ~$725–760B AMZN $200B · MSFT $190B · GOOGL $185B · META $135B · ORCL $50B
毛 AI 终端收入(Labs + Cloud AI + Neocloud) ~$150–160B 未剔除循环流
循环流估算(Labs → Cloud 回流) −$28B(含 $21–35B 区间) OpenAI→Azure · Anthropic→AWS+GCP · 其他
净外部 AI 收入(去循环后) ~$110–120B 真正进入生态的"新钱"
CapEx / 净收入比 ~9–10× vs 光纤泡沫 ~2× · 云建设 ~2.7×

Sources: Q1 2026 财报电话会议(CNBC / Fortune / Microsoft Source / Alphabet earnings, Apr 29 2026)· Synergy Research(Apr 2026)· Sacra · CreditSights · Morgan Stanley · The Information.

A. 供给侧:Big 5 CapEx 4 年 5 倍化

Hyperscaler CapEx 在 2023–2026 年走出了一条几乎直线向上的曲线。2023 年还在 $155B 量级, 2026 年指引中位数已达 $735B,年化增速持续 60–70%。所有 5 家 Q1 CapEx 同比涨幅均超 65%, Oracle 单季同比翻三倍。

trendBig 5 CapEx 年度走势
财年Big 5 合计 CapExYoY背景
2023$155BChatGPT 发布后第一年,仍是常态量
2024$256B+65%第一波加速
2025$443B+73%训练算力大规模铺开
2026E$725–760B+64–72%当前指引,多家年内已上调
2027E~$1,050B+40%Goldman / Moody's 预测,年内或破 $1T

CapEx / Sales 比率创历史新高:Oracle 86%、Meta 54%、Microsoft 47%、Alphabet 46%、Amazon 25%。 整个 Big 5 自由现金流覆盖率首次跌破 1.0×——CapEx + 分红 + 回购 已大于经营现金流。

Source: Q1 2026 财报 + Introl / Morgan Stanley 估算。

B. 需求侧:按层切开的 ARR 结构

按本 token map 的 4 层框架重新组织收入,能看清"钱从哪一层进来"。 Cloud AI 营收(L2+L3b)目前是大头($74.5B),但其中很大一部分来自 AI Labs 的算力回流; AI Labs(L3)外部收入 ~$57B,Neocloud(L2)~$10B。

代表 + 口径 2026E ARR 关键看点
L3 · AI Labs Anthropic + OpenAI + xAI + Mistral + Cohere + Perplexity + 其他 ~$57B Anthropic $30B(4 月披露,年初仅 $9B)首次反超 OpenAI(~$25B);Top 2 占 96%
L2/L3b · Cloud AI MSFT AI Business + AWS Trainium/Bedrock + Google Cloud GenAI ~$74.5B MSFT $37B(含 OpenAI 用量,+123% YoY)· AWS $20B · GCP ~$17.5B(+800% YoY)
L2 · Neocloud CoreWeave + Lambda + Together + Crusoe + Nebius + 其他 ~$10–25B CoreWeave $66.8B backlog · Nebius 6× 增长;本质是给上面两层兜底的 swing capacity
合计 · 毛收入 ~$150–160B 剔除循环流后净外部 ~$110–120B

C. 循环流:三组"投资 ↔ 算力消费"压舱石

AI Labs 的最大成本是算力,而算力卖家又是它们的最大股东。 投资换算力承诺、算力承诺撑高估值、估值再换更多投资——这套闭环让 cloud AI 营收的"含金量" 需要打折看。三组主要循环:

loop 1Microsoft ⇌ OpenAI
MSFT 累计投入 OpenAI$13B+(含 27% 利润分成股权,市值 ~$135B)
OpenAI Azure 长期承诺$250B(约 7 年,占 MSFT $627B RPO 的 ~40%)
OpenAI 2026E ARR~$25B(年底预期 $30B+)
估算年化 Azure 回流~$10–20B/年(占 OpenAI 收入 50–80%)

MSFT "AI Business" $37B ARR 数据本身披露口径就说明"包含 model builders 的 Azure 用量"—— 也就是 OpenAI 的训练 + 推理消费直接计入了 Microsoft 的 AI 营收。

Source: Microsoft Source(Apr 29 2026)· om.co 10-Q 分析(May 1 2026).
loop 2Amazon ⇌ Anthropic
AMZN 累计投入 Anthropic$8B(已投)+ 至多 $25B(含可转债),最新估值 $60.6B
Anthropic AWS 长期承诺$100B+(10 年,5GW Trainium 算力)
Anthropic 2026E ARR$30B(4 月披露,年初 $9B → 4 月 $30B = 3.3× / 4 月)
估算年化 AWS 回流~$10–25B/年(Morgan Stanley 估 75% 成本是云)

AWS 自披露 Trainium 业务 $20B ARR,与 Anthropic 的承诺曲线高度同步。 AWS $364B backlog 中显著比例来自 Anthropic 长约。

Source: Anthropic 公告(Feb 2026)· VentureBeat(Apr 2026)· Bloomberg.
loop 3Google ⇌ Anthropic
Google 投入 Anthropic$10B 已投 + 至多 $40B 里程碑(含云抵扣)
Anthropic Google Cloud 承诺$200B / 5 年(5GW TPU 算力,2027 开始)
占 GCP $462B backlog 比例~40%(按 $200B/$462B 推算)
估算年化 GCP 回流(成熟期)~$40B/年(始于 2027;2026 ~$2–5B)

GCP backlog 2026 Q1 季度内翻倍至 $462B,主驱动正是 Anthropic 的 $200B 承诺(媒体披露于 2026-05-05)。 Google Cloud GenAI 营收 +800% YoY、运营利润率从 17.8% → 32.9% 翻倍,背后是同一笔锁定。

Source: The Information(May 5 2026)· Google Q1 2026 earnings call · BigGo Finance.

循环流加总:仅 Anthropic + OpenAI 两家,已锁定向 Big 3 云 ~$550B 长期算力承诺 (AWS $100B + GCP $200B + Azure $250B),占 Big 3(含 Oracle)合计 ~$2 万亿 RPO 的近半数。 年化"双重计数"营收估 ~$28B(区间 $21–35B),约占毛 AI 收入的 18%。

D. 历史对比:这一轮和光纤 / 云建设有什么不同?

周期 峰值年 CapEx CapEx / 营收 资产利用率 结局
光纤泡沫 1998–2000 $120B/年 ~2× ~2%(2002 实测) WorldCom / Global Crossing 等 ~80% 公司破产
云建设 2010–2015 $80B/年 ~2.7× 持续上升 需求接住,AWS/Azure/GCP 成头部
AI 建设 2024–2026 $1,050B/年(2026E) ~6.6× 毛 / ~9.4× 净 ~97.5%(GPU 当前实测) 未定

三个数据差异决定了"这次不一样"的论据是否成立: (1) 速度——AI 建设比云建设快 3 倍; (2) 集中度——5 家公司控制 ~60% 投入(vs 光纤时代分散在数十家电信); (3) 利用率——GPU 97.5% 利用率 vs 光纤泡沫破后 2%,是当前最强的"需求真"证据,但也意味着没有缓冲。

E. 趋势判断(5 条)

  1. 2027 年 CapEx 跨过 $1T,是"无悬念"事件。

    当前 Big 5 已发行 $108B 债务(3.4× 历史均值),Morgan Stanley/JPM 估 2025–2027 累计发债 $1.5T 支撑这轮投入。Capex/Sales 比率已升至历史极值,未来增量靠债不靠现金流。

  2. 毛 / 净营收差距 将随循环承诺到期而扩大,不是收敛。

    Anthropic $200B GCP 合约 2027 才开始计入营收;OpenAI 7 年 $250B 仍在前半段。Cloud AI 营收里 Labs 回流的占比预计从 18% 上升到 25–30%,意味着"真营收"增长会比披露口径慢。

  3. Anthropic 把"训练成本 / 营收"压到 OpenAI 的 1/4——这是新的成本曲线分水岭。

    Anthropic 80× 年增、训练成本仅 OpenAI 1/4,意味着 efficiency frontier 正向左移。如果 frontier model 的训练成本结构进入"训一次顶以前四次"的阶段,2027 年的 CapEx 投入回报会被重新定价。

  4. 消费端订阅 / API 拐点已现,企业渗透加速。

    OpenAI 周活 900M(2025-10 还是 800M),M365 Copilot 付费席位 6 个月内从 15M → 20M;Anthropic Fortune 100 渗透 70%、年消费 $1M+ 客户数 2 个月翻倍至 1000+;Menlo Ventures 测企业 LLM 支出半年 2.4 倍。需求端从"试点"转为"在编 IT 预算"。

  5. Neocloud 是观测点,不是赛道。

    $10–25B ARR vs $40–65B CapEx,是反向利差。CoreWeave $66.8B backlog 主要客户是 Microsoft(曾占 62% 营收)——本质是 hyperscaler 的资产负债表外延伸。Neocloud 利用率 / GPU 现货价 / hyperscaler 自有产能 是判断这轮是否过热的早期信号。

口径与免责: AI-specific CapEx 不被任何公司单独披露,按行业通行的 75% 估算; 循环流为外部估算(公司不披露 "OpenAI 在 Azure 的支出"); 部分长期承诺(Anthropic-GCP $200B)2027 才正式开始计入。 所有数字截至 2026-05-11,下次复核:2026 Q2 财报(2026-07-29 前后)。