从物理算力到终端用户:以"交易单位"为分层标准的 4 层价值链 · 附消费端数据透视
这份研究的主线是 Token 的生产与消费。最终目标:从底层算力到终端售价, 看清每一环节的价值如何被分配,谁吃走了大头。
v0.2 的关键变化是确立了一个组织原则: 每一层用"输出的交易单位"作为分层标志。 把"层"从"角色名"变成了"刚性标准"——同一交易单位即为同一层。
每一层的判定标准不是"做什么",而是"输出什么交易单位"。 交易单位在层与层之间转换,转换发生时即为层界。
自上而下,箭头标注每一层之间传递的交易单位。 L3 与 L4 内部各有一条次结构(1P/3P,批发/零售),下文展开。
最底层硬件实体——基建(机房 / 电力 / 网络)+ AI 芯片本身。输出"物理意义上的算力载体"。
物理空间、稳定供电、高速互联与电气冷却设备——AI 工厂的"地皮 + 神经"。
| 子项 | 占比 | 主要供应商 |
|---|---|---|
| 电气(UPS / PDU / 开关柜 / 配电) | 40–50% | Vertiv · Schneider · Eaton · ABB |
| 冷却(液冷为主) | 15–20% | Vertiv · CoolIT · nVent · Boyd |
| 网络(交换机 + 光模块 + NIC) | 12–18% | Arista · Broadcom · NVIDIA · Coherent · Innolight |
| 建筑壳体 | 15–20% | colocation 商 + 总包 |
| 设计 / 管理 / 许可 | 5–10% | — |
把硅片做成 AI 计算单元,按"卡"或"系统"形式销售或自用。
| 项目 | 资本投入 | 折旧期 | 年化成本 |
|---|---|---|---|
| 基建(DC building) | ~$15M | 25 年 | ~$0.6M |
| GPUs(~750 张 H100 @ $35k) | ~$26M | 5 年 | ~$5.2M |
| 电力(1 MW × $0.08/kWh × 8760h) | — | — | ~$0.7M |
| 合计 | ~$41M | — | ~$6.5M / 年 |
直接拥有并运营 L1 资产,把硬件转换成"机时"对外输出。
把 GPU Hours 加工成可调用的 Token API。内部由"训练"和"推理"两条流汇合而成。
两类玩家最终都"输出 Token API",但承担的成本完全不同——这是后面"价值链验证"必须切清的一刀。
承担 Training sunk cost + 自家 Inference 边际成本。定价权强,需摊销训练投入。
仅承担 Inference 成本(开源权重免费,授权权重付费)。本质是 Inference-as-a-Service。
支撑 3P 的引擎:Inferact (vLLM, $800M)RadixArk (SGLang, $400M)NVIDIA TensorRT-LLM
Token API 在这一层被消费。从 L3 进入后,分三条并行脉络流向不同终点—— 一部分仍以 Token API 形态在开发者之间流转,一部分被应用层公司包装成"订阅 + Credit"卖给终端用户。
通过 聚合器(Aggregator) 或 Token 中转站 把 N 家 1P / 3P API 聚到单一接口,再加价转售。
AI Lab(1P)或 3P 厂商把 Token API 直接卖给开发者,无中间商加价。
Token API 进入应用层公司,按行业被包装成具体产品。 这些公司最终以"订阅 + Credit"的形式卖给终端用户—— 整条价值链上加价倍率最高的一段,发生在这里。
| 通用 Chatbot | ChatGPT Claude.ai Gemini Poe |
|---|---|
| Coding | Cursor Windsurf GitHub Copilot Cognition · Devin Replit |
| 法律 | Harvey Robin AI Spellbook |
| PPT / 演示 | Gamma Tome Beautiful.ai Prezi Minds |
| 客服 | Crescendo Decagon Sierra |
| 搜索 | Tavily Perplexity You.com |
| 销售 / 营销 | Attentive Postscript Jasper Copy.ai |
| 金融 | Surf |
| AI + Payment | Coinbase AgentKit Stripe · Tempo MPP Skyfire Kite AI x402 Protocol |
| 多渠道 IM | Tinyfish Locus |
| Personal Agent | Magic Character.ai Pi |
| 笔记 / 写作 | Notion AI Granola |
交易单位定义了清晰的层界,但头部公司频繁跨层吞并,把上下游收进一家。 在做"价值链验证"时,必须先把这些公司的财务从单层 markup 计算中拆开,否则毛利会被一锅炖。
| 穿透方向 | 代表 | 经济学含义 |
|---|---|---|
| L3 → L1 AI Lab 自建算力 |
OpenAI Stargate · Google TPU+DC · Meta 350k H100 · xAI Colossus | 大厂跳过 L2,直接采购裸机 / 自建机房。L2 New Cloud 的议价天花板被压低。 |
| L2 → L3b 云厂上探做 API |
AWS Bedrock · Azure OpenAI · GCP Vertex | L2 用 distribution 把闭源模型打包成 3P API 转售,模糊 1P / 3P 边界,吞掉部分 L3 利润。 |
| L2 + L3b 一体化 独立 3P 内置算力 |
Together AI · Fireworks · Groq | 同一公司同时跨 L2 / L3b。财务上无法把 token 成本切干净,对外报价不会暴露各层 markup。 |
| L1 → L3 / L4 NVIDIA 软件税 |
NVIDIA NIM · DGX Cloud | 硬件厂越过 L2,直接做推理服务和 API 平台。CUDA 锁定向上延伸。 |
| L3a → L4 Path 3 1P 自营终端 |
OpenAI ChatGPT · Anthropic Claude.ai · Google Gemini app | AI Lab 自营终端,把 1P API + 应用包装一手包办。毛利无法外部观察。 |
前三节解决了"层怎么分、谁吞了谁"。这一节回答一个更朴素的问题: 整个产业砸下去的钱,和真正赚回来的钱,差多少倍? 数据基于 2026 Q1 财报(披露于 2026-04-29)与公开承诺,全部金额单位为 USD。
Sources: Q1 2026 财报电话会议(CNBC / Fortune / Microsoft Source / Alphabet earnings, Apr 29 2026)· Synergy Research(Apr 2026)· Sacra · CreditSights · Morgan Stanley · The Information.
Hyperscaler CapEx 在 2023–2026 年走出了一条几乎直线向上的曲线。2023 年还在 $155B 量级, 2026 年指引中位数已达 $735B,年化增速持续 60–70%。所有 5 家 Q1 CapEx 同比涨幅均超 65%, Oracle 单季同比翻三倍。
| 财年 | Big 5 合计 CapEx | YoY | 背景 |
|---|---|---|---|
| 2023 | $155B | — | ChatGPT 发布后第一年,仍是常态量 |
| 2024 | $256B | +65% | 第一波加速 |
| 2025 | $443B | +73% | 训练算力大规模铺开 |
| 2026E | $725–760B | +64–72% | 当前指引,多家年内已上调 |
| 2027E | ~$1,050B | +40% | Goldman / Moody's 预测,年内或破 $1T |
CapEx / Sales 比率创历史新高:Oracle 86%、Meta 54%、Microsoft 47%、Alphabet 46%、Amazon 25%。 整个 Big 5 自由现金流覆盖率首次跌破 1.0×——CapEx + 分红 + 回购 已大于经营现金流。
Source: Q1 2026 财报 + Introl / Morgan Stanley 估算。按本 token map 的 4 层框架重新组织收入,能看清"钱从哪一层进来"。 Cloud AI 营收(L2+L3b)目前是大头($74.5B),但其中很大一部分来自 AI Labs 的算力回流; AI Labs(L3)外部收入 ~$57B,Neocloud(L2)~$10B。
| 层 | 代表 + 口径 | 2026E ARR | 关键看点 |
|---|---|---|---|
| L3 · AI Labs | Anthropic + OpenAI + xAI + Mistral + Cohere + Perplexity + 其他 | ~$57B | Anthropic $30B(4 月披露,年初仅 $9B)首次反超 OpenAI(~$25B);Top 2 占 96% |
| L2/L3b · Cloud AI | MSFT AI Business + AWS Trainium/Bedrock + Google Cloud GenAI | ~$74.5B | MSFT $37B(含 OpenAI 用量,+123% YoY)· AWS $20B · GCP ~$17.5B(+800% YoY) |
| L2 · Neocloud | CoreWeave + Lambda + Together + Crusoe + Nebius + 其他 | ~$10–25B | CoreWeave $66.8B backlog · Nebius 6× 增长;本质是给上面两层兜底的 swing capacity |
| 合计 · 毛收入 | — | ~$150–160B | 剔除循环流后净外部 ~$110–120B |
AI Labs 的最大成本是算力,而算力卖家又是它们的最大股东。 投资换算力承诺、算力承诺撑高估值、估值再换更多投资——这套闭环让 cloud AI 营收的"含金量" 需要打折看。三组主要循环:
| MSFT 累计投入 OpenAI | $13B+(含 27% 利润分成股权,市值 ~$135B) |
| OpenAI Azure 长期承诺 | $250B(约 7 年,占 MSFT $627B RPO 的 ~40%) |
| OpenAI 2026E ARR | ~$25B(年底预期 $30B+) |
| 估算年化 Azure 回流 | ~$10–20B/年(占 OpenAI 收入 50–80%) |
MSFT "AI Business" $37B ARR 数据本身披露口径就说明"包含 model builders 的 Azure 用量"—— 也就是 OpenAI 的训练 + 推理消费直接计入了 Microsoft 的 AI 营收。
Source: Microsoft Source(Apr 29 2026)· om.co 10-Q 分析(May 1 2026).| AMZN 累计投入 Anthropic | $8B(已投)+ 至多 $25B(含可转债),最新估值 $60.6B |
| Anthropic AWS 长期承诺 | $100B+(10 年,5GW Trainium 算力) |
| Anthropic 2026E ARR | $30B(4 月披露,年初 $9B → 4 月 $30B = 3.3× / 4 月) |
| 估算年化 AWS 回流 | ~$10–25B/年(Morgan Stanley 估 75% 成本是云) |
AWS 自披露 Trainium 业务 $20B ARR,与 Anthropic 的承诺曲线高度同步。 AWS $364B backlog 中显著比例来自 Anthropic 长约。
Source: Anthropic 公告(Feb 2026)· VentureBeat(Apr 2026)· Bloomberg.| Google 投入 Anthropic | $10B 已投 + 至多 $40B 里程碑(含云抵扣) |
| Anthropic Google Cloud 承诺 | $200B / 5 年(5GW TPU 算力,2027 开始) |
| 占 GCP $462B backlog 比例 | ~40%(按 $200B/$462B 推算) |
| 估算年化 GCP 回流(成熟期) | ~$40B/年(始于 2027;2026 ~$2–5B) |
GCP backlog 2026 Q1 季度内翻倍至 $462B,主驱动正是 Anthropic 的 $200B 承诺(媒体披露于 2026-05-05)。 Google Cloud GenAI 营收 +800% YoY、运营利润率从 17.8% → 32.9% 翻倍,背后是同一笔锁定。
Source: The Information(May 5 2026)· Google Q1 2026 earnings call · BigGo Finance.循环流加总:仅 Anthropic + OpenAI 两家,已锁定向 Big 3 云 ~$550B 长期算力承诺 (AWS $100B + GCP $200B + Azure $250B),占 Big 3(含 Oracle)合计 ~$2 万亿 RPO 的近半数。 年化"双重计数"营收估 ~$28B(区间 $21–35B),约占毛 AI 收入的 18%。
| 周期 | 峰值年 CapEx | CapEx / 营收 | 资产利用率 | 结局 |
|---|---|---|---|---|
| 光纤泡沫 1998–2000 | $120B/年 | ~2× | ~2%(2002 实测) | WorldCom / Global Crossing 等 ~80% 公司破产 |
| 云建设 2010–2015 | $80B/年 | ~2.7× | 持续上升 | 需求接住,AWS/Azure/GCP 成头部 |
| AI 建设 2024–2026 | $1,050B/年(2026E) | ~6.6× 毛 / ~9.4× 净 | ~97.5%(GPU 当前实测) | 未定 |
三个数据差异决定了"这次不一样"的论据是否成立: (1) 速度——AI 建设比云建设快 3 倍; (2) 集中度——5 家公司控制 ~60% 投入(vs 光纤时代分散在数十家电信); (3) 利用率——GPU 97.5% 利用率 vs 光纤泡沫破后 2%,是当前最强的"需求真"证据,但也意味着没有缓冲。
当前 Big 5 已发行 $108B 债务(3.4× 历史均值),Morgan Stanley/JPM 估 2025–2027 累计发债 $1.5T 支撑这轮投入。Capex/Sales 比率已升至历史极值,未来增量靠债不靠现金流。
Anthropic $200B GCP 合约 2027 才开始计入营收;OpenAI 7 年 $250B 仍在前半段。Cloud AI 营收里 Labs 回流的占比预计从 18% 上升到 25–30%,意味着"真营收"增长会比披露口径慢。
Anthropic 80× 年增、训练成本仅 OpenAI 1/4,意味着 efficiency frontier 正向左移。如果 frontier model 的训练成本结构进入"训一次顶以前四次"的阶段,2027 年的 CapEx 投入回报会被重新定价。
OpenAI 周活 900M(2025-10 还是 800M),M365 Copilot 付费席位 6 个月内从 15M → 20M;Anthropic Fortune 100 渗透 70%、年消费 $1M+ 客户数 2 个月翻倍至 1000+;Menlo Ventures 测企业 LLM 支出半年 2.4 倍。需求端从"试点"转为"在编 IT 预算"。
$10–25B ARR vs $40–65B CapEx,是反向利差。CoreWeave $66.8B backlog 主要客户是 Microsoft(曾占 62% 营收)——本质是 hyperscaler 的资产负债表外延伸。Neocloud 利用率 / GPU 现货价 / hyperscaler 自有产能 是判断这轮是否过热的早期信号。
口径与免责: AI-specific CapEx 不被任何公司单独披露,按行业通行的 75% 估算; 循环流为外部估算(公司不披露 "OpenAI 在 Azure 的支出"); 部分长期承诺(Anthropic-GCP $200B)2027 才正式开始计入。 所有数字截至 2026-05-11,下次复核:2026 Q2 财报(2026-07-29 前后)。