人工智慧的快速演進,從生成式模型到大型語言模型的全球普及,掀起史無前例的算力需求浪潮。然而,隨之而來的卻不是單純的伺服器增購或晶片競賽,而是一場逐漸浮上枱面的「電力荒」。對AI科技企業而言,能源成本正迅速從背景因素變成制約產業擴張的核心變量,甚至左右未來創新速度。
根據國際能源署(IEA)近年的多項能源展望,全球數據中心耗電量正呈現明顯上升趨勢,其中AI推理與訓練所需的高度密集運算,是帶動新增耗電的主要因素之一。IEA曾估算,若AI模型與相關服務維持當前的增長速度,數據中心在未來幾年內的電力需求可能逼近中等國家的年用電總量,足以重塑全球能源格局。即使這些預測仍有一定範圍的變動,方向卻相當明確:電力正成為限制AI發展的關鍵稀缺資源。
數據中心營運者對此並不陌生。隨著GPU集群部署規模動輒上萬顆,加上模型訓練所需長時間連續運算,其能耗已遠超傳統雲端服務。以Nvidia於其技術報告與產業簡報中披露的估算為例,新一代AI加速器雖持續提升能效(Performance per Watt),但總體算力需求的升幅仍遠大於晶片節能幅度,使得「效能提升帶動耗能增加」的矛盾更加明顯。換言之,即便硬體能效不斷進步,只要模型參數與訓練規模持續指數型增長,AI的能源消耗依舊難以真正下降。
能源成本的上升也開始影響AI商業模式。運算密集的訓練與推理服務需要大量能源,而能源價格每上升一個百分點,都可能直接壓縮模型服務利潤。一些科技公司甚至不得不選擇在偏遠地區設立資料中心,只因當地電價相對便宜或具有可預期的再生能源供應。同時,政府對碳排放的監管日趨收緊,使企業不得不重新思考「更快」與「更大」是否仍是AI發展唯一的方向。當能源成為真正的成本中心後,算力產業未來的競爭邏輯很可能不再只是晶片性能與模型演算法,而是能源效率與碳排策略。
AI引發新型能源競賽:從碳排壓力到基礎設施重構
在許多政策與研究的脈絡中,AI的興起已不再是純粹的科技議題,而是能源政策、綠電佈局與碳排治理的交叉焦點。最直接的問題,是AI數據中心的用電模式與傳統電網之間存在明顯的不匹配。大型AI訓練需要超高功率密度且長時間穩定供電,且多在全年無休的狀態下運行,意味著電網若無法保證供應穩定性,就會成為部署的最大瓶頸。
全球多個國家已開始重新審視數據中心的發展節奏。一些地區因面臨供電壓力,甚至對新設數據中心採取審慎態度或暫緩批准。因為在極端情況下,AI集群的能耗足以造成區域電網的負載飆升,進而推高整體供電成本,影響一般居民與企業用電。有分析指出,在某些城市,若AI伺服器比重持續增加,將帶來新的能源調度挑戰,使「算力與民生爭電」成為潛在矛盾點。
另一方面,各國政府也將其視為推動綠色能源轉型的契機。當AI企業開始主動尋求風電、光伏、水電甚至地熱能源時,能源建設的投資邏輯便產生改變。某些地區甚至開始探索「數據中心與再生能源共建」或「AI電力直供」模式,以減輕電網負荷、降低轉換損耗並提升能源配置效率。這不僅是商業策略,更是能源與科技政策同步調整的結果。
更深層的變化,則來自對碳排放的壓力。IEA的報告多次強調,若未改善能源效率或提高綠電占比,AI的碳排量可能成為各國達成淨零路線的主要變數之一。大型模型訓練一次所需的能源與碳排放往往相當可觀,這促使科技公司不得不更積極投入碳管理、擴增再生能源合約、使用液冷系統改善數據中心能效,甚至重新設計演算法以降低不必要的運算步驟。
義合控股(01662)投資者關係部。



