AI芯片產業的臨界點與潛在黑馬

分享

AI芯片產業的臨界點與潛在黑馬

国产AI芯片概念:壁仞、燧原、沐曦、摩尔线程的逐鹿征程

若要為未來一年AI芯片產業畫出輪廓,市場關鍵字恐怕不再只是「更大模型」與「更強訓練」,而是「誰能把推理成本壓下來、把供應鏈卡點打通、把生態系做深」。NVIDIA仍然是產業重心,黃仁勳在2026年3月仍把AI芯片的市場機會上修至1兆美元級別,顯示整體需求遠未見頂;但同一時間,市場也開始更嚴格地追問:下一波增長,究竟來自通用GPU繼續一家獨大,還是來自客製ASIC、記憶體與互連架構的重新分工?

 

第一個臨界點,是AI算力重心由訓練轉向推理。過去兩年,資本市場習慣以「誰買更多GPU」來理解AI浪潮;但到了2026年,愈來愈多企業真正關心的不是訓練峰值,而是部署後每一次查詢、每一次生成、每一次代理式任務所消耗的電力、延遲與成本。這也解釋了為何市場開始重新估值那些能提供半客製化晶片、推理加速器與高效率系統方案的公司。Reuters近期即指出,投資人已預期NVIDIA在2027年前後可能在部分推理市場面臨自研ASIC擴張的壓力,這並不代表GPU時代結束,而是意味市場從「買最強」轉向「買最合適」。

 

第二個臨界點,則是瓶頸已從「算力晶片本身」外溢到HBM、高階封裝與互連。Broadcom近日直言,TSMC產能在2026年已成供應鏈瓶頸;另一方面,HBM仍處於吃緊狀態,分析機構甚至預估2026年記憶體將吞噬超大型雲端業者約三成AI資料中心支出。換句話說,未來一年真正稀缺的,不只是GPU,而是能不能同時拿到先進封裝、記憶體與高速連接資源。這會使產業估值邏輯出現明顯轉折:過去市場偏愛「設計最強晶片的人」,未來則更看重「能把整機系統交付出來的人」。

 

平台霸權VS定製化自主路線

 

第三個臨界點,是生態系開始分岔:一邊是NVIDIA持續鞏固平台霸權,另一邊則是客製化與區域自主路線同步崛起。Broadcom預測其AI芯片收入到2027年將突破1,000億美元,Marvell亦給出多年成長展望,反映大型雲端客戶已不滿足於全數依賴單一GPU供應商,而是希望把特定工作負載交給自研或半客製晶片。與此同時,在中國市場,IDC數據顯示2025年本土AI加速器已拿下約41%的伺服器市場份額,說明出口限制與政策導向正在重塑區域供應鏈。未來一年,全球市場不會只是一場產品競賽,更會是一場「陣營競賽」。

 

在這樣的格局下,潛在黑馬企業未必是最會講AI故事者,而是最能踩中結構性卡位點者。Broadcom是最值得留意的名字之一,因為它押中的不是單一晶片,而是超大客戶的客製化需求,這種商業模式一旦成熟,黏着度往往高於標準化產品。Marvell則可能是第二匹黑馬,它近月不僅上調多年的AI成長預期,還獲得NVIDIA投資與更深合作,意味它在客製XPU、光互連與網絡整合上的角色正被放大。若AI基礎設施由「買卡」走向「建系統」,Marvell的彈性反而可能成為優勢。

 

至於更具想像空間的黑馬,則可能來自新創。Cerebras在2026年2月完成10億美元融資、估值升至約230億美元,3月又與AWS合作,讓其晶片進入雲端可用資源池;這說明市場對「非GPU架構」不再只是旁觀,而是開始給出真金白銀的試用入口。另一類容易被低估的玩家,是像Astera Labs這樣做AI伺服器連接方案的公司。當資料搬運速度、記憶體調度與機櫃級擴展成為效能上限時,互連晶片未必像GPU那樣耀眼,卻可能是整個AI系統最先受益的隱形贏家。這也是未來一年投資布局最值得修正的地方:不要只盯着算力核心,也要看「算力如何被送達」。

 

義合控股投資者關係部

(芯片與算力系列之46)

 

分享