生成式AI的爆發,正在悄然改寫雲端服務的競爭規則。過去十多年,雲服務商的核心能力在於規模化資料中心、軟體平台與定價策略,但在AI訓練與推理成為算力消耗主體後,硬體尤其是AI芯片,重新回到戰略核心位置。當算力成本直接決定模型能力與商業化速度,雲端服務與芯片設計之間的邊界,開始前所未有地模糊化。
在這場變化中,美國三大雲端巨頭不約而同選擇向下游延伸,自研芯片不再只是成本優化工具,而是打造垂直整合優勢、鎖定客戶生態的關鍵一環。
Amazon:以成本與規模為核心的「雲原生芯片」
在三者之中,Amazon的芯片策略最具「雲原生」特徵。無論是早期的Graviton,還是後續的Trainium與Inferentia,其設計出發點始終明確:降低雲端算力單位成本,並為特定工作負載提供足夠、而非極致的性能。這種思路與Amazon一貫強調的低價與規模化高度一致。
Amazon並不試圖在算力指標上全面超越通用GPU,而是將芯片深度嵌入自身雲服務架構,讓客戶在不改變使用習慣的情況下,逐步遷移到自研芯片實例。對企業用戶而言,這是一種「無感替換」:性能略有差異,但整體性價比更高。這也使Amazon能在價格競爭中,持續拉開與其他雲服務商的成本曲線。
從戰略層面看,Amazon的目標並非定義AI算力的技術標準,而是確保在任何算力週期中,都能維持最低邊際成本,從而鞏固其雲市場份額。
Google:從TPU到AI平台的深度整合
相比之下,Google的自研芯片策略更具技術理想主義色彩。TPU並非單純為降低成本而生,而是從一開始就服務於Google內部的大規模機器學習需求,並逐步外溢至雲端客戶。其核心邏輯在於:用專用硬體,最大化特定算法與框架的效率。
Google的優勢,在於軟硬體的高度協同。從模型架構、編譯器到芯片指令集,TPU與其AI生態形成了緊密耦合。對使用Google雲的客戶而言,選擇TPU不只是選擇一顆芯片,而是進入一整套AI開發與部署體系。這種策略提升了轉換成本,也強化了平台黏性。
然而,這種深度整合也意味著較高的使用門檻。TPU的最佳性能,往往建立在特定框架與工具鏈之上,對希望保持跨平台靈活性的企業而言,吸引力有限。Google的芯片戰略,更像是在用硬體強化其AI技術領先形象,而非全面爭奪雲端算力市場的通用需求。
Microsoft:介於平台與控制之間
Microsoft的自研芯片路徑,則呈現出明顯的「中間態」。一方面,Microsoft在AI服務上高度依賴外部芯片供應,尤其是GPU生態;另一方面,其自研芯片並非為了完全替代,而是作為戰略籌碼,提升在供應鏈與成本結構中的談判能力。
Microsoft更關注的是如何將自研芯片與其雲平台、企業軟體與AI服務整合,形成端到端解決方案。這種策略,使其在硬體層面保持一定自主性,同時又不必承擔全面自研帶來的風險。從結果看,Microsoft並不急於用自研芯片全面推向市場,而是將其視為長期選項,用以應對算力短缺或成本波動。
這種「半垂直整合」模式,或許不如Amazon激進,也不如Google純粹,但在不確定性上升的AI競賽中,反而提供了更高的戰略彈性。
義合控股投資者關係部。
(芯片與算力系列之17)








