
Anthropic喺4月初公布、並且喺4月22號再獲多家媒體跟進報道嘅一份重磅協議——就係同Google同Broadcom簽訂一份為期多年、合共3.5GW,即吉瓦級別嘅TPU算力合約,新增容量將會由2027年開始陸續上線。呢個係截至目前為止,AI產業歷來最大單筆運算承諾之一。公司年化收入由2025年底大約90億美元,急升到300億美元,而年付超過100萬美元嘅企業客戶數量,喺唔夠兩個月之內,由500家倍增到超過1,000家。
根據Anthropic官方公告,以及TechCrunch、Tom’s Hardware、CNBC、《The Register》喺4月7號同4月22號接連嘅報道,新合約涵蓋咗三個層面。第一,3.5GW TPU容量,由Broadcom負責設計,Google提供雲端營運,而Anthropic就作為終端客戶獨家鎖定呢批算力。第二,新增算力主要會落戶美國本土,作為Anthropic早前承諾投資500億美元美國基建計劃嘅延伸。第三,呢部分容量其實係喺2025年10月已經宣布嘅1GW Google Cloud TPU合約之外,再額外加碼。
換句話講,Anthropic喺唔夠半年之內,已經將原本預計喺2026至2027年可以調用嘅TPU總容量,推高到4.5GW以上——而呢個數字,已經大到足以媲美一個中型國家整體電網負荷。
咁點解Anthropic會揀TPU,而唔係Nvidia GPU?根據Datacenter Dynamics同Silicon Republic分析,背後有三個非常現實嘅原因。
第一,TPU由Google同Broadcom自家研發、自家製造,而Anthropic作為超級大客戶,仲可以參與架構優化;呢一種靈活度,係Nvidia作為單一供應商好難提供得到。
第二,價格同供應穩定性。喺Nvidia GB200同Blackwell平台到而家仍然持續缺貨嘅情況之下,TPU提供咗一條可以繞過供應瓶頸嘅替代路徑,而且估計每瓦運算成本,相比GPU方案仲有一定折讓。
第三,就係能效比。最新一代TPU喺大模型訓練嘅單位能耗表現上,喺某啲workload入面,已經能夠同Nvidia最新平台抗衡。對於一個每年耗電量以TWh計嘅訓練集群嚟講,呢啲唔係紙上數字,而係實實在在嘅營運成本差距。
如果由企業客戶角度去睇,根據Outlook Business同Nerd Level Tech喺4月22號整理嘅數據,Anthropic喺2026年第一季,已經搶走咗企業首次採購AI工具市場入面73%嘅份額;OpenAI只剩返大約27%。而年化300億美元營收,亦都意味住Anthropic喺過去四個月,已經正式超越OpenAI同期嘅商業收入。
值得補充嘅係,年付超過100萬美元企業客戶數量倍增,唔單止係因為Claude本身能力進一步提升,仲同Anthropic由2025年第四季開始切換去按使用量計費嘅企業合約模式,有直接關係。因為呢種模式,令大型企業客戶更容易由試點階段,直接過渡去全面部署。
Nvidia而家大約76%嘅AI加速器市佔率,主要建立喺CUDA軟件生態系統嗰種強大鎖定效應之上——即係話,開發者一旦熟習咗CUDA,就會好難轉去其他平台。但Anthropic今次嘅選擇,其實已經證明咗一件事:至少對於最頂尖、最有資源嘅模型訓練客戶嚟講,自研晶片加雲端整合方案,係可以繞過CUDA,直接落場。
呢種打法,好似圍魏救趙咁——Anthropic根本唔需要正面攻擊Nvidia晶片本身,只要繞過佢,轉而同Google Cloud深度綁定,就已經足以動搖Nvidia喺超大型訓練客戶市場入面嘅議價能力。問題關鍵唔係TPU單片性能係咪超越Blackwell,而係整體系統成本同供應穩定性,係咪可以提供另一條更划算、更穩陣嘅路。歷史上其實有類似例子。
今次協議其實揭示咗三個層面嘅結構性影響。
第一,AI晶片市場正由單一霸主模式,開始走向多極供應格局。Anthropic今次大幅加碼TPU,將會逼使其他大型雲廠,例如Microsoft、Meta、Amazon,加快推進自研晶片商業化,令成個生態系統入面嘅議價權開始重新分配。
第二,Broadcom角色正被根本性重估。佢唔再只係一間網絡晶片公司,而係開始進化成為一個客製化AI ASIC設計平台。呢個轉變,令佢同Nvidia之間市值差距,正急速收窄。
第三,AI算力競爭,而家已經由單純比晶片數量,轉向比拼電力同冷卻能力呢啲更底層嘅物理瓶頸。3.5GW係咩概念?差唔多等於三個中型核反應堆滿載輸出。未來數據中心選址,將唔再係純粹搵平地、平租,而係要同電網規劃、再生能源項目深度綁定。