
一千八百八十二 Exaflops。呢個係中國工信部最新公佈嘅國內人工智能(AI)算力總量。對比全球 Top500 超級電腦排行榜嘅總和,呢個數字高出咗大約六千倍。消息透過《南華早報》同 Interesting Engineering 同時發佈,短短幾個鐘頭就震動咗全球科技界同投資市場。表面睇落呢項係令人眼花繚亂嘅技術成就;但如果細心睇吓背後嘅計法同埋政策語境,就會發現呢個「六千倍」背後,其實係一場精心設計嘅文字遊戲。
所謂 Exaflops,係指每秒十嘅十八次方浮點運算。Top500 嘅基準採用嘅係 HPL(高效能 Linpack),測量嘅係 FP64 雙精度浮點運算,呢個係通用超算嘅「黃金標準」。但係工信部今次公佈嘅 1882 Exaflops,根據《南華早報》4 月 23 號嘅專題分析,其實係混合咗 FP32、FP16 甚至更低精度嘅 INT8 同 FP8 嘅 AI 專用運算。換句話講,呢個係一個「蘋果加西瓜」嘅加總數字——佢將傳統超算嘅「蘋果」,同埋 AI 晶片為咗深度學習而優化嘅「西瓜」堆埋一齊,然後用蘋果嘅計量單位嚟報告,出到嚟個樣自然就變成「六千倍」嘅神話。
中國喺呢個時候公佈呢個咁大嘅數字,同美國對華 AI 晶片出口管制嘅時機「夾到準一準」。輝達(Nvidia)H20、H100 晨早已經受限,最新公佈嘅 NSTM-4 備忘錄又將「蒸餾盜竊」列為國家安全議題。對外,係要回應「美國禁運之下,中國算力係咪跟唔上」嘅輿論質疑;對內,就要向地方政府同民營資本傳遞「國家級算力基建已經具備規模」嘅信心。1882 Exaflops 呢個數字,既係對外宣傳,亦係內部維穩。
根據中國工信部同月推出嘅配套計劃,佢哋正喺度起緊連接 40 個主要城市嘅「未來網絡試驗設施」,英文縮寫叫 FNTF。呢個網絡嘅官方定位,係提供跨城市光網高速連接、支持跨區域算力調度。喺白皮書層面聽落好雄偉,但去到實際部署層面,FNTF 仲係處於試驗階段。Data Center Dynamics 另一份報道指出,中國國家計算網嘅全面目標係 300 Exaflops。即係話,官方「全面目標」300 Exaflops 同工信部今次公佈「已實現」嘅 1882 Exaflops 之間,有成六倍嘅差距。呢種自相矛盾,只能夠理解為兩個數字用咗兩把唔同嘅「秤」。
國際科技記者同美國智庫之所以開始討論「暗算力池」呢個概念,原因唔係中國真係擁有隱藏嘅六千倍算力,而係中方現有嘅算力統計方式,包含咗大量未必具備實際 AI 訓練效能嘅低精度算力儲備。呢入面有一部分係嚟自地方政府補貼嘅 AI 基建項目——好多項目喺份計劃書度吹到算力幾大規模,但實際利用率可能連三成都冇。呢個係典型嘅「官方數字靚、現場機櫃空」嘅結構性落差。
從政策面睇,中方今次公佈嘅邏輯有三條:
1. 向美方發出訊號: 就算晶片禁運持續,中國嘅算力增長都冇停過。
2. 向本土資本市場講故事: AI 基建依然係國家級優先投資方向。
3. 為地方政府下一輪算力補貼「背書」: 有咗「1882 Exaflops」呢個官方數字,之後各省申報算力中心項目都有咗政治底氣。
然而,呢三條邏輯都係建立喺「跨精度加總」之上,一旦被國際同行用同一套 HPL 基準重新測量,真實算力將會大幅縮水。
中國 AI 產業確實面對緊一個好現實嘅困境——喺缺乏輝達高階訓練晶片嘅情況下,點樣用國產晶片、同埋大量低精度嘅推理晶片,夾硬堆出可用嘅訓練算力。呢個問題嘅解法之一,就係大規模「橫向擴展」低精度算力,犧牲單卡效能嚟換取集群規模。1882 Exaflops 呢個數字,某程度上反映咗呢條技術路線嘅現狀。但呢條路嘅樽頸位好明確——互聯頻寬、能源成本、訓練效率、散熱壓力,全部都會隨住集群規模擴張而成指數級上升。堆數字容易,真正能訓練出前沿模型嘅算力,係難得多。
第一,中資 AI 概念股嘅估值,一定要考慮其實際算力效能,而唔係官方報告數字。 第二,光模組、交換機、液冷、數據中心基建板塊,將會持續受惠於「集群擴張」呢套邏輯。 但真正嘅贏家依然係上游嘅美方供應鏈——1882 Exaflops 就算再大,依然需要晶片去填滿啲機櫃;美方嘅硬件護城河,並冇因為呢個數字而縮細到。