AI技術的能源消耗是當前研究的焦點,對科技公司營運資料中心構成挑戰。OpenAI執行長Sam Altman在其部落格中指出,平均每次ChatGPT查詢耗電約0.34 Wh,相當於烤箱運行1秒或高效能燈泡運行數分鐘的耗電量。此外,每次查詢耗水約0.000085加侖,約為十五分之一茶匙。他認為,隨著資料中心自動化,AI的智慧成本最終將趨近電力成本,突顯能源效率對AI發展的重要性。
然而,學術界對AI能耗的估計更為嚴峻。加州大學河濱分校副教授Shaolei Ren的研究顯示,若使用者向ChatGPT提出5至50個問題,資料中心可能消耗約500毫升水,遠超Altman提及的數據。這反映出AI運算在冷卻系統中的水資源依賴,尤其在大型資料中心中更為顯著。此外,有研究預測,AI的電力消耗可能在年底超越比特幣挖礦,後者以高能耗著稱。此預測突顯AI規模擴張對全球能源系統的壓力。
AI能耗的爭議不僅限於電力與水資源。資料中心的碳足跡、硬體製造的環境成本,以及AI模型訓練的龐大能耗均受到關注。例如,訓練大型語言模型可能需要數千兆瓦時的電力,相當於數千戶家庭一年的用電量。隨著AI應用普及,科技公司需平衡性能提升與環境影響,探索可再生能源、優化算法或更高效的冷卻技術。