鴻海大啖CPU Tray商機 通吃NVIDIA、Google TPU兩大AI陣營
人工智慧(AI)近2年儼然已經是全球少數維持生機蓬勃發展的產業,不過,在這波AI浪潮中,卻也存在著底層的暗潮洶湧。先前ChatGPT問世之後,帶動了以GPU為主的AI浪潮,其中,NVIDIA又一馬當先引領業迅速發展。但近日Gemini 3發布後,市場又迅速將目光聚焦在Google以其自研TPU打造的AI伺服器上。
不過,供應鏈業者表示,不論是NVIDIA的GPU或Google的TPU,背後都需要仰賴台灣相關供應鏈進行協助。包括從半導體的生產,眾多液冷、散熱、連接相關的零組件,CPU/TPU托盤,到最終機櫃的組裝,每個環節都可看見台灣供應鏈業者身影。
以近期廣受矚目的Google搭載TPU的AI伺服器為例,除了由英業達供應Google TPU伺服器主機板外,在負責指揮調度的「CPU Tray」部分,則是由鴻海全數拿下。
業者表示,顯見鴻海除了在由NVIDIA領軍的GPU陣營中,扮演著關鍵領導者的角色外,在包括Google TPU v6p、AWS Trainium,與微軟(Microsoft)Maia等希望能以特用晶片(ASIC)架構自行尋求AI發展應用的陣營裡,同樣有著重要的地位。
鴻海董事長劉揚偉先前也曾表示,AI產業的發展是2026年最為正向且關鍵的一部分,除將與主要客戶開展更緊密的合作外,AI機櫃產品線也從GPU延伸至ASIC解決方案。不僅是AI伺服器市場中的市佔率將會從現在的40%再增加,且GPU及ASIC的產品組合比重,預估也將接近市場常態的8比2。
劉揚偉這番話背後的底氣,主要就是透露了鴻海與Google等業者之間,在以TPU等不同加速器為主的AI伺服器領域中,早也合作多時。特別是在負責處理運算與管理部分的CPU Tray,更是在市場上獨領風騷。
據了解,目前不論是NVIDIA或Google在AI伺服器機櫃設計上,早已不再是以幾張加速卡為單位。包括目前Google內部主力TPU v6e,均早已採用「托盤方式」進行;而在Google的一般標準機櫃中,則會有16個TPU托盤(64顆TPU)。
但是TPU不能單獨存在,以目前TPU v6e的標準配置,需要由一台Host Server(CPU Tray)管理8顆TPU晶片,也就是2個TPU托盤;也就是在機櫃中,除了16個TPU托盤外,還需要有8台以CPU為主的Host Server。這部分,據了解除了Google之外,其他幾大業者CPU Tray的相關需求,目前也都是掌握在鴻海手中。
另外,除了掌握Host Server外,鴻海旗下的工業富聯,同時也是Google的AI伺服器機櫃整機組裝的重要合作伙伴,在2025年預期將會供應Google全球AI伺服器訂單的60%。
相關業者表示,即便是後續在設計上,或將出現其他變化,但是不論是TPU或其他加速卡,暫時都還是需要有CPU進行協助,只是設計方式及數量上或將出現差異。但對於鴻海而言,等同於在目前全球AI最具影響力的兩大陣營中,都早已在相關供應鏈上站穩腳步。
責任編輯:何致中







