NVIDIA AI伺服器代工出貨模式丕變!  台系三大ODM廠率先入列 智慧應用 影音
D Book
236
AI EXPO 2026
Event

NVIDIA AI伺服器代工出貨模式丕變!  台系三大ODM廠率先入列

  • 李立達、杜念魯台北

供應鏈盛傳,NVIDIA要在下一代AI伺服器機櫃,大幅改變系統組裝代工模式。李建樑攝
供應鏈盛傳,NVIDIA要在下一代AI伺服器機櫃,大幅改變系統組裝代工模式。李建樑攝

NVIDIA新款AI伺服器代工出貨模式驚傳出現變化,CEO黃仁勳恐將更緊握系統組裝掌控權。

供應鏈傳出,NVIDIA下一代Vera Rubin架構AI伺服器機櫃代工,將由緯創、廣達及鴻海三家負責組裝到L10,再由NVIDIA出貨給客戶,此做法將讓NVIDIA對製造更深入掌控。此外,也讓NVIDIA的AI伺服器生產更集中在少數廠商,成為新的競爭門檻。

供應鏈業者指出,NVIDIA尚未正式通知供應鏈,然而已在積極協調ODM業者,制訂更細節的生產流程。業界分析,NVIDIA一直想辦法將自家的AI伺服器機櫃標準化,不僅簡化生產流程、也有利於量產加速,業者笑說,「即使(NVIDIA)已掌握了95%,也還有5%要達成」。

伺服器機櫃組裝,主要分為11個階段(Level),L1~6主要以各種模組組裝為主,出貨為主機板形式;L7~L9階段再加上CPU、GPU、HDD、記憶體等關鍵零組件;L10進行系統組裝與測試;L11是整機櫃組裝。

業界傳出,過去NVIDIA的AI伺服器機櫃,可粗分為兩段,第一段為做到L6的主機板,第二段是從L6,再加關鍵零組件到L10,然在2026年下半將開始量產的Vera Rubin架構,NVIDIA有意指定三家ODM做到L10,交貨給NVIDIA後,再交給要做L11的廠商。

業界傳出,被傳指定的三大ODM,分別是緯創、鴻海與廣達。

其中緯創與鴻海,原本就是NVIDIA在GB(Grace Blackwell)架構的運算板(Compute Board)供應商,而鴻海與廣達,是兩大NVIDIA的GB機櫃組裝供應商。上述三大廠,都不對客戶製造流程做評論。

據悉,NVIDIA的GB200與GB300機櫃,由緯創、鴻海生產運算板,出貨給NVIDIA後,再由NVIDIA出貨給ODM做後段組裝,未來NVIDIA想要進行的商業模式,是由指定供應商直接做到L10後,出貨給NVIDIA,再由NVIDIA出貨給ODM做L11組裝。

過去各家在拿到L6階段完成的運算板後,再進行後段組裝,各家會有不同設計,然未來若採用新的出貨模式,各家在NVIDIA機櫃能夠「變化」的機會減少,頂多在L11部分,做些不同設計與變化,未來的NVIDIA高階AI伺服器機櫃,「長相」也會更統一。

事實上,不只ODM組裝流程傳有變化,散熱模組廠也傳出,過去由雲端服務大廠(CSP)採購的散熱模組,在Vera Rubin架構時,將會由NVIDIA統一指定採購後,再交由ODM組裝。散熱廠分析,此做法也是讓流程更標準化,有利於NVIDIA掌握量產良率與速度。

英業達日前召開法說會,外界詢問上述傳聞的新出貨模式對英業達的影響。總經理蔡枝安說明,未收到NVIDIA正式通知,只是業界在流傳,但對英業達影響有限,若真如傳聞,英業達就直接向NVIDIA購買L10的產品,再進行L11後出給客戶。

廣達也在法說會上,被各界詢問相關傳聞,廣達說明,將來產業趨勢是集中在少數具有系統整合與財務實力的廠商,競爭態勢也會更集中。若客戶真如傳聞所說,從L6到L10,只是再度確認AI伺服器製造集中化的競爭現象,樂於看待此發展。

雖然,鴻海在12日法說會中並未提到相關傳問,但對於AI機櫃與AI產業的發展,董事長劉揚偉抱持正面樂觀態度,除表明2026年AI機櫃出貨量預計倍增,且產能持續擴充,並將持續提升自動化與測試良率外,亦強調屆時市佔率亦進一步提升。

同時,鴻海在AI產業發展上,也不僅限於機櫃產品,劉揚偉表示,除了朝上游零組件、下游資料中心與微型資料中心(MDC)持續布局外,也將橫向往產業的應用與營運端發展,在應用AI算力持續進行LLM訓練外,也將涉足超算中心的營運,成為NVIDIA的雲端合作夥伴(NCP),力求跳脫AI伺服器機櫃市場競爭的態勢明顯。

責任編輯:何致中