華碩強勢布局AI基礎架構解決方案 打造全方位AI生態系
人工智慧(AI)快速普及的熱潮激勵台灣高科技產業高速的發展,為了迎接新的AI應用旺盛的需求,無論是水漲船高的客製化智慧機器人,或是火熱的「AI Agent智慧代理」的應用,台灣電子供應鏈與半導體生態系統大舉展開多頭的投資布局,華碩電腦副總裁、開放平台事業群暨基礎設施方案群共同總經理朱培蘭先生接受這次的專訪時,他就直指現階段的AI發展雖然正經歷風生水起的熱潮,宛如當年在2000年初的Internet世代再現,源源不斷的創意與AI應用支撐著強大市場成長動能。
大量的生意機會從生成式AI進階到多元的Edge AI落地應用的相互拉抬的發展路線上,算力上的投資仍然有增無減,AI基礎設施以指數級成長的曲線吸引全球的目光。
當中以NVIDIA推出包括Blackwell新平台架構與參考設計最吸引關注,其嘗試用嶄新的AI基礎設施打造NVIDIA Cloud Provider(NCP)的標準平台,滿足包括雲端服務供應商(CSP)與各個不同國家與地區所訴求的AI超級電腦與AI基礎設施專案的需求,創造大量的商機。
華碩一直是AI算力基礎建設的領跑者,為全球的超級電腦項目注入強大動能。以台灣為例,其協助國家實驗研究院國家高速網路與計算中心(NCHC)成功建設了包括Taiwania 2、Forerunner 1在內的七大超算中心專案,這些超算中心是台灣科技競爭力的堅強後盾。更值得一提的是,2025年華碩也將協助客戶打造由NVIDIA GB200 NVL72支援的AI超算平台。
而隨著愈來愈多的政府法規遵循與企業資訊安全的考量下,企業界在AI推論的應用上著墨更深,從雲端資料中心到邊緣節點的Edge AI運算架構的建置,華碩憑藉強大的技術整合能力,以多樣化的伺服器產品線與軟硬體系統整合,大規模擴充與大量客製化的多元AI伺服器的產品線,一站式整合基礎設施的產品策略與營運管理,瞄準NCP平台的需求,攜手全球AI晶片巨擘,協助企業與CSP廠商建立重要的基礎設施。
COMPUTEX 2025亮相AI基礎設施解決方案與落地應用布局
華碩這次在COMPUTEX 2025會場中展示ASUS AI POD參考架構的新系列產品設計,支援NVIDIA GB300 NVL72與HGX B300的架構的超級AI算力的伺服器系統,滿足大型語言模型(LLM)所需要的AI訓練與多階段推論所需要的運算效能之需。華碩基礎設施方案群陳奕彰協理特別聚焦於新世代的AI 伺服器所關注主流散熱技術的發展,並大舉布局液冷式的散熱系統的建置,提供涵蓋Liquid-To-Liquid 或是 Liquid-To-Air的多種選擇的解決方案,這是整合供應鏈夥伴大量進行彈性設計的合作所成,支援包括 Grace Blackwell、HGX、MGX等主流架構的需求,協助客戶在營運上所需的運算效能與能源使用上的最佳化設計。
華碩將產品亮點聚焦於ASUS AI POD整機櫃式GB200/GB300 AI伺服器系統,還有8張GPU卡所組成的HGX系統,外加PCIe介面的MGX架構的多張GPU卡配置的系統,符合各種不同的AI應用場景的需求,對於AI伺服器所面對的多樣化智慧型應用的挑戰,華碩基礎設施方案群吳智暉處長觀察到華碩過去參與國網中心打造國家級超級電腦專案經驗中,發現軟體解決方案扮演著在縮短部署時程、更提升效率的關鍵角色,目前除了協助打造AI生態系統落地應用,提供包括ACC (ASUS Control Center)、AIDC (ASUS Infrastructure Deployment Center)、BMC等一站式平台所需要的建置、部署與營運需求,同時兼顧整個資料中心生命週期的管理需求。
再者,在機房設計、網路架構、存儲叢集與軟體平台整合的規劃上,華碩打造ASUS Professional Services協助企業做到無縫接軌與迅速擴展的AI系統的建置。
華碩AI Hub一體機AI伺服器協助企業擁抱AI熱潮
特別值得一提的,這次秀展中華碩展示ASUS AI Hub一站式解決方案,打造一體機的AI伺服器系統,系統內涵蓋著企業界對於主流的LLM的整合需求,尤其關注於特定產業領域中所需要的AI助理工具提升生產力及效率,以及諸如DEEPSEEK精簡式模型或Llama 3系列等微調的LLM系統,這對於企業界進行AI部署與智慧型應用的開發特別有重要的意義。
這些COMPUTEX 2025的主要產品展示與聚焦,誠如朱培蘭強調AI應用還正處於一個初期開始的發展階段,華碩藉由在AI伺服器與基礎設施的產品線多樣化布局,支援從雲端資料中心,Agentic AI到Edge AI的全應用場景的需求,協助客戶在AI戰略上取得關鍵的競爭力與商業上的成功。