投資焦點

2026/02/12

AI ASIC 與 General GPU:競合並存下的算力架構重塑

2026 年資料中心算力架構將由過去單一GPU主導,正式轉向「GPU + AI ASIC」的異質運算(heterogeneous computing)模式。GPU 仍憑藉成熟CUDA生態與高度彈性,主導前沿模型訓練與快速迭代開發;然而,針對大規模推論與重複性工作負載,AI ASIC 在能耗效率與單位成本上具備顯著優勢,逐步成為CSP控制TCO與強化自有算力自主性的核心工具。產業研究亦指出,TPU並非取代GPU,而是在ASIC領域內擴張市佔率,兩者屬互補關係而非零和競爭。

2026 年資料中心算力架構將由過去單一GPU主導,正式轉向「GPU + AI ASIC」的異質運算(heterogeneous computing)模式。GPU 仍憑藉成熟CUDA生態與高度彈性,主導前沿模型訓練與快速迭代開發;然而,針對大規模推論與重複性工作負載,AI ASIC 在能耗效率與單位成本上具備顯著優勢,逐步成為CSP控制TCO與強化自有算力自主性的核心工具。產業研究亦指出,TPU並非取代GPU,而是在ASIC領域內擴張市佔率,兩者屬互補關係而非零和競爭。

1. 2026 AI ASIC:滲透率加速、成長最快的算力子領域

隨著生成式AI從實驗走向商業化落地,大量即時推論請求成為常態,雲端服務商(CSP)開始更重視「每單位算力成本」與「總持有成本(TCO)」的控制能力。在此背景下,專為特定工作負載設計的ASIC晶片逐漸展現優勢。

相較通用型GPU,ASIC可針對固定任務進行深度最佳化,在能耗效率與成本結構上更具競爭力,部分場景甚至可降低三至五成運算成本。對於動輒數百億美元資本支出的 CSP 而言,這樣的差距足以改變整體投資方向。

因此,包括 Google、Amazon、Meta等科技巨頭紛紛投入自研晶片,AI ASIC出貨與資本支出同步加速,產業預期2025–2027年AI ASIC 硬體價值年複合成長率高達 90%,而三大 CSP 自研晶片於2026年合計出貨量亦將超過700萬顆。市場普遍認為未來兩到三年將是 ASIC 滲透率快速提升的關鍵期,也將成為 AI 硬體中成長最具爆發力的子領域。

2. Google TPU:垂直整合生態系+架構效率打造難以複製的競爭優勢

在眾多自研方案中,Google TPU 被視為AI ASIC商業化最成熟的代表,其優勢主要來自「垂直整合生態系」與「專用架構設計」兩大面向。

(1)垂直整合生態系:Gemini帶動內生算力飛輪

隨著Gemini 3深度嵌入Search、Workspace、Android與雲端服務,生成式AI成為數億用戶的日常工具,每一次搜尋與內容生成皆對應龐大推論需求,直接轉化為TPU算力消耗,形成「模型升級→用量成長→算力擴建→成本下降」的內生式飛輪。這種以自家流量支撐硬體規模的模式,使Google具備其他業者難以複製的規模經濟與投資效率。

同時,TPU生態逐步開放至支援XLA與PyTorch等主流框架,並開始服務第三方客戶(如 Anthropic、Apple、xAI 等),從內部加速器升級為可對外商用的雲端算力平台。

(2) 架構效率優勢:ASIC 專用化 vs GPU 通用化

從架構角度來看,TPU 與 GPU 也呈現明確分工:GPU 強調通用性與成熟軟體生態,適合訓練與研發;TPU 則透過專用化設計,在大規模推論中提供更高效率與更低成本。整體 AI 加速器需求仍供不應求,TPU 的成長更多來自新增算力需求與 ASIC 滲透率提升,而非直接排擠 GPU。預期未來兩者各司其職,共同構成完整的 AI 算力組合。

圖表說明


3. 出貨量預估與供應鏈受惠:TPU 放量帶動硬體新週期

隨著 Google TPU、AWS Trainium 等ASIC方案進入放量階段,AI 伺服器的硬體需求也同步升級,帶動整體供應鏈迎來新商機。2026年ASIC出貨結構顯示Google TPU 為最大貢獻者:

從晶片設計服務、先進封裝測試、伺服器組裝,到電源管理與液冷散熱,高效能 AI 伺服器的複雜度與功耗持續提升,使相關零組件需求全面升溫。特別是在高功耗環境下,液冷散熱逐漸成為主流配置,為散熱與電源廠商帶來長期成長動能。


註:以上個股非推介投資標的,僅為示意參考,實際投資需視當時指數成分而定,投資人需衡量自身投資風險。

本報告內容僅供參考,不作為任何投資之邀約或建議,投資人應謹慎考量本身之需求與投資風險,本公司恕不負任何可能之損害責任。本報告有關訊息或有取材自本公司認可之資料來源,但並不保證其真實性與完整性,本公司已盡合理之注意求其正確與可靠;資料更新時,本公司保留權利但無義務為相關修正。

本文作者為富邦投信研究部 鄭力瑋