AI 行业分析

宏观理解AI行业

Posted by LXG on February 26, 2026

动手学深度学习-李沐

OpenAI 和 Anthropic 人员结构图

类别 OpenAI(约 7200 人) Anthropic(约 2300–2500 人)
研究 & 基础研发 ~30% (~2,100–2,200) ~30% (~700–750)
工程 & 基础设施 ~25% (~1,800) ~25% (~575–625)
产品 & 商业化 ~15% (~1,080) ~15% (~350–375)
数据工程 & 数据治理 ~10% (~720) ~10% (~230–250)
安全 / 对齐 ~10% (~720) ~15% (~350–375)
运营 / 非技术 ~10% (~720) ~5–10% (~115–250)

数据来源

  • OpenAI 的数据策略是 “大力出奇迹”:通过海量资金买断全球媒体资源,配合强大的合成数据流水线,追求模型的广度和多模态能力。
  • Anthropic 的数据策略是 “精耕细作”:通过宪法 AI 生成极其干净的合成数据,配合高水平的人类专家反馈,追求模型的深度和安全性。

2026 年全球 AI 巨头资本支出计划对比表

巨头类别 公司名称 2026年预计支出 (USD) 支出性质与核心投向 市场信号 / 备注
云基建巨头 Amazon (AWS) ~$2,000 亿 全球数据中心扩建、自研芯片 (Trainium 3)、核能电力买断。 规模之王:支出规模已超越多数中型国家年度基建。
云基建巨头 Alphabet (谷歌) ~$1,800 亿 TPU v6/v7 量产、Gemini 系列研发、深层地热能等绿色基建。 全栈闭环:试图在芯片、模型、能源上实现完全自给。
社交/开源巨头 Meta (脸书) ~$1,300 亿 Llama 5 训练、万亿级参数集群维护、大规模采购 AMD 芯片。 开源杠杆:通过高额支出维持开源霸权,降低 AI 行业门槛。
软件/云巨头 Microsoft ~$1,150 亿 Azure AI 全球节点、Stargate (星际之门) 项目、OpenAI 专属算力。 战略金主:作为 OpenAI 的“算力银行”,重点在于生态绑定。
独角兽 (巨舰) OpenAI ~$170 - 200 亿* 推理成本优化、下一代前沿模型 (o3/o4) 训练、人才激励 (SBC)。 战术调整:2026年开始下调远期预期,转向追求高 ROI。
独角兽 (精锐) Anthropic ~$100 - 120 亿* Claude 4 系列研发、企业级 Agent (Claude Code) 快速部署。 人效冠军:营收增长极快 (ARR $140亿),亏损率正大幅收窄。

*注: 对于非上市的 OpenAI 和 Anthropic,该项反映的是其年度现金支出(Cash Burn),主要流向为向微软/亚马逊/谷歌租赁算力的费用。数据基于 2026 年 Q1 财报指引及行业调研。

2026 年 AI 芯片来源比例分布表

厂商名称 自研芯片比例 (约) 主要采购来源 自研芯片代号与用途
Alphabet (谷歌) ~55% NVIDIA, Broadcom TPU v6 / v7:承担谷歌内部 90% 以上训练与推理任务,自给率全球最高。
Amazon (AWS) ~40% NVIDIA, AMD Trainium 3 / Inferentia 3:大规模部署,面向 Anthropic 及 AWS 云客户提供训练与推理服务。
Meta (脸书) ~25% NVIDIA, AMD MTIA v2 / v3:主要用于推荐系统和广告算法;LLM 训练仍高度依赖 NVIDIA GPU。
Microsoft ~20% NVIDIA, AMD Maia 200:用于 Azure 内部服务及部分 OpenAI 推理任务;起步较晚但增长较快。
OpenAI ~5% NVIDIA(主), AMD 自研项目(未公开):目前 95% 以上算力仍依赖 NVIDIA;2026 年开始增加 AMD 采购。
Anthropic ~15% Google (TPU), AWS 不直接自研硬件;通过适配 TPU 与 Trainium 降低对 NVIDIA 依赖。

OpenAI VS Anthropic 硬件策略

维度 OpenAI 的做法 Anthropic 的做法
显卡获取 举债 / 融资,大规模向 NVIDIA 直接采购。 接受巨头投资,直接使用巨头的云算力。
芯片种类 主要是 NVIDIA(90% 以上)。 三足鼎立:NVIDIA + Google TPU + AWS Trainium。
财务影响 负债率高,资本支出(CapEx)巨大。 人效比极高,营收(ARR)与开支比例健康。

Anthropic 股权结构

股东类别 代表机构 估算持股比例 (约) 角色与性质
战略科技巨头 Amazon (亚马逊) ~8% - 10% 最大单一战略股东,累计投入超 $80 亿,用于算力与生态布局。
战略科技巨头 Google (Alphabet) ~12% - 14% 早期进入,总投入约 $30 亿,包含大量云抵扣券,提供基础设施支持。
战略科技巨头 Microsoft & NVIDIA ~4% - 6% 2025-2026 年间新入场,主要为算力合作与生态占位。
机构领投方 GIC (新加坡主权基金) ~5% - 7% Series G 领投方,目前最活跃的长期财务投资人。
机构领投方 Coatue & MGX ~5% 阿联酋背景的 MGX 进场,标志着主权资本对 AI 的争夺。
创始人与员工 Amodei 兄妹及核心团队 ~15% - 20% 虽经多次稀释,但通过 A/B 股及信托保留核心决策权。
早期 VC 与其他 Founders Fund, Spark 等 ~剩余部分 包含数十家硅谷顶级风投及早期机构投资者,提供早期资金与战略建议。

Anthropic 是典型的“多方分权制”,亚马逊和谷歌相互制衡,安全性由外部信托控制

OpenAI 股权结构

股东类别 代表机构 估算持股比例 估算价值 (基于 $830B 估值) 权利与性质
主导投资方 Microsoft (微软) ~27% ~$2,240 亿 核心战略伙伴,拥有模型 IP 永久授权(至 2032 年)。
非营利母体 OpenAI Foundation ~26% ~$2,150 亿 控制权核心:保留任命董事会的权利,拥有超额认股权证。
员工与管理层 Sam Altman 及核心团队 ~15% - 20% ~$1,200 - 1,600 亿 包含 2026 年 2 月刚开启的员工套现计划。
最新战略投资者 NVIDIA (英伟达) ~4% - 5% ~$300 - 400 亿 2026 年 2 月通过 300 亿美金直接注资获得股份。
全球资本盟友 SoftBank, Thrive, GIC ~剩余部分 ~$1,800 亿 多为 2025 年大额融资进入,支持 IPO 进程。

OpenAI 是典型的“中心集权制”,虽然非营利基金会在法律上控制董事会,但 Sam Altman 和 微软 构成了实际的业务驱动轴心

复杂的交叉持股

核心投资方 被投 / 合作方 投资性质 战略目的
NVIDIA (英伟达) OpenAI / Anthropic 股权投资 + 算力优先权 “锁定下游”:确保顶级实验室长期使用 NVIDIA 架构,构建硬件护城河。
Microsoft (微软) OpenAI / Anthropic 股权投资 + 算力抵扣 “多头下注”:重仓 OpenAI 的同时入股 Anthropic,降低对单一供应商依赖。
Amazon (亚马逊) Anthropic 深度控股级投资 “算力消化”:让 Anthropic 成为 AWS 自研芯片(Trainium)的最佳实验场。
OpenAI / AMD 相互持股 / 认股权证 芯片换股权 “去英伟达化”:OpenAI 获得 AMD 股份,作为使用 AMD 芯片激励,联合对抗 NVIDIA。

Mac Studio 的发布历史

型号 CPU 核心 GPU 核心 最大统一内存 内存带宽 定位
M1 Max (2022) 10 24–32 64GB 400GB/s 初代高性能
M1 Ultra (2022) 20 48–64 128GB 800GB/s 首代旗舰
M2 Max (2023) 12 30–38 96GB 400GB/s 性能升级
M2 Ultra (2023) 24 60–76 192GB 800GB/s 专业旗舰
M4 Max (2025) 14–16 32–40 128GB+ 500GB/s级 AI 优化新架构

对单律师或小律所,M4 Max 就够用;需要高并发、多文档处理或企业内部部署,选择 M2 Ultra 最稳妥

mac_studio

部署 ChatLaw 硬件性能对比表

维度 Mac Studio (Ultra) NVIDIA DGX Spark
可运行模型规模 33B+(满血) 33B(高性能)
检索响应 (RAG) ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐
推理速度 (TPS) ⭐⭐⭐⭐ ⭐⭐⭐⭐⭐
系统兼容性 macOS(法律软件需适配) Windows / Linux(极好)
部署难度 简单(图形化工具 + macOS生态) 较高(依赖 Docker / CUDA)
价格区间 $3999+(高配更贵) $3999–$4299(标准版)

参数对比

维度 Mac Studio Ultra NVIDIA DGX Spark
定位 专业工作站 企业级 AI 推理超算
CPU Apple Silicon(多核心高效能) 多路 x86 服务器 CPU
GPU 架构 Apple GPU + Neural Engine NVIDIA GPU (Ampere / Hopper/Blackwell)
AI 加速单元 Neural Engine + Metal + GPU CUDA + Tensor Cores + NVLink
最大统一内存 192 GB(可选) 各卡内存总和(数百 GB+)
显存总量 依统一内存共享 多 GPU 独立显存(≥ 80 GB / 卡 x 多卡)
推理吞吐能力(相对) ⭐⭐⭐⭐(高) ⭐⭐⭐⭐⭐⭐(更高)
可支持模型规模 33B+(满血,本地) 33B+(高性能,多卡并行)
推荐场景 单机大模型推理 / AI 办公 企业级集群推理 / 多用户并发
系统兼容性 macOS + Metal Linux + CUDA / Kubernetes
部署复杂度 ⭐⭐(简单) ⭐⭐⭐⭐(复杂)
典型价格区间 ~$4000+ ~$4000–$4300 / 单节点(不含集群)

NVIDIA DGX Spark是被美国出口管制的

  • 合规风险: 即使您通过灰色渠道买到了 DGX Spark,未来其内置的 DGX OS(基于 Ubuntu 的专用系统)在更新驱动或访问 Nvidia 企业级 AI 库时,可能会因为 IP 识别而遭到封锁。
  • 替代方案: 如果您所在的律所对合规性要求极高,Mac Studio M4/M5 Ultra 是目前风险最小的高端选择。