自2022年AI熱潮興起,NVIDIA憑藉Ampere與Hopper架構及CUDA軟體生態系,穩坐AI市場龍頭。然而,AMD正積極追趕,挑戰NVIDIA的全面生態優勢。AMD推出Instinct MI300系列,號稱記憶體容量與頻寬媲美NVIDIA H100,且在AI推論應用中具競爭力。但NVIDIA的護城河在於其軟硬體整合,AMD不僅需硬體突破,還要克服生態系劣勢。
為此,AMD推出開源AI軟體平台ROCm,支援Linux與Windows系統,解放CUDA限制,並透過UALink及UEC滿足AI網路擴展需求。儘管如此,市場話語權仍由NVIDIA主導,科技巨頭多在新聞稿中提及使用NVIDIA設備,AMD則面臨品牌形象挑戰。
AMD以具性價比的MI300系列(比NVIDIA便宜20%-30%)逐漸獲微軟、OpenAI採用。展望2026年,AMD將推Instinct MI400系列,搭載432GB HBM4記憶體,頻寬達19.6TB/s,FP4算力達40 PFLOPS,並推出Helios機架式伺服器,整合EPYC Venice CPU與MI400 GPU,對抗NVIDIA Rubin NVL72,支援高達260TB/s的縱向擴展頻寬。
分析指出,AMD的競爭不僅在於硬體效能,更需打造完整生態系。市場逐漸認為,AMD無需完全取代NVIDIA,兩者可共存共榮,推動AI產業發展。