生成式AI的爆發,使算力供應鏈的焦點悄然從GPU轉移至其背後的關鍵零組件HBM(高頻寬記憶體)。若說GPU是AI的「心臟」,那麼HBM便是驅動這顆心臟高速跳動的「血液供應系統」。隨著模型規模與上下文長度急速增長,Transformer架構對記憶體頻寬的依賴已遠超傳統GPU的負載能力,高性能HBM因此成為性能瓶頸所在。
以GPT-4、Claude 3、Gemini 1.5等模型為例,其運算需要同時處理大規模權重與中間張量(activations),記憶體頻寬不足會直接導致推理速度下降與延遲增加。因此,供應鏈的競爭早已不只是在GPU設計者之間,而是前移至誰能提供足夠數量、品質穩定、良率高的HBM。這也使過去相對低調的記憶體企業SK hynix、Samsung、Micron,在AI時代重新站上全球科技的舞台中央。
更關鍵的是,HBM與GPU是「一體供應」。HBM不只是記憶體,而是與先進封裝(如CoWoS、H100/H200的堆疊架構)深度綁定的系統性產品。這代表全球算力不再是「晶片供應競爭」,而是「系統封裝能力競爭」,掌握HBM產能者,往往就是掌握當前AI算力的寡頭。
SK hynix:技術領先者如何壟斷高端市場
在AI供應鏈當中,SK hynix無疑是近年最耀眼的贏家。它最早在HBM3與HBM3E取得量產優勢,良率與能效表現遠勝競爭對手,使其成為NVIDIA等AI GPU廠商的首選合作伙伴。HBM良率的高低直接影響整顆AI GPU模組的總成本,而SK hynix的穩定品質與高堆疊良率意味著供應鏈風險低、單位能耗更優,這恰是雲服務商最重視的。
SK hynix的強勢地位亦來自其在HBM堆疊架構(stacking)、熱管理與TSV(矽通孔)設計上的深度投入。這些技術壁壘需要多年工藝調校,非短期資本投入即可追上。正因如此,SK hynix在HBM市場的一度佔比接近半壁江山,成為全球供應鏈的「戰略資源持有者」。
然而,成功也帶來壓力。SK hynix必須面對兩項挑戰:一是NVIDIA對多供應商策略的推動,使其不能完全壟斷市場;二是競爭者快速追趕,尤其是Samsung的產能與全球客戶網絡。因此,SK hynix雖佔據高端市場,但仍需透過加速HBM4開發、提升封裝效率與擴張產能來捍衛地位。
Samsung與Micron:追趕者的策略差異
相較於SK hynix在HBM技術上的領先,Samsung則擁有另一組優勢,全球最大記憶體產能、廣泛客戶網絡、成熟的製造管理與極強的資本投入能力。Samsung的策略並非技術細項完全壓倒對手,而是在供應鏈關係、產能規模與企業生態上取得優勢。
Samsung能提供「整合式供應方案」:從DRAM、NAND到GPU設計合作(自研Exynos)、甚至加工製程,其垂直能力是其他記憶體廠難以複製的。這讓部分GPU或AI加速器廠商願意採取雙供應商策略,降低對SK hynix的依賴。Samsung若能在HBM良率與功耗上持續改善,其市佔率將可能進一步提升。
Micron的策略則更為聚焦。相較於韓國雙雄的晶圓量產優勢,Micron在HBM3E與低功耗DRAM(LPDRAM)方面逐漸建立差異化,特別是在針對AI訓練與推理的高速、低延遲記憶體產品上找到市場定位。Micron的技術團隊在美國本土研發,某些雲端服務商對供應鏈多元化有強烈需求,使其在HBM供應鏈中的重要性上升。
更重要的是,美國政府對先進半導體供應鏈本土化的政策動能,使Micron的戰略地位在地緣政治中被強化。換言之,Micron並非要在高端HBM市場完全壓倒韓國廠商,而是透過產品差異化與策略性合作掌握一定份額。
義合控股投資者關係部







