華碩布局AI基礎設施方案 完美演繹AI Factory創新藍圖 智慧應用 影音
D Book
231
CIOE
IC975

華碩布局AI基礎設施方案 完美演繹AI Factory創新藍圖

  • 孫昌華台北

COMPUTEX 2025華碩電腦(ASUS)的展覽攤位展示於人工智慧(AI)基礎設施的完整解決方案的展示,針對資料中心、邊緣運算以及各式各樣智慧型應用所需要的算力需求,華碩提供充沛的產品組合,一舉呼應NVIDIAAI Factory概念所揭示AI將更深入地融入企業IT基礎架構的實際樣貌,其所帶動的應用與服務持續展現了人工智慧與高速運算應用的未來藍圖。

這次展覽攤位中,華碩以多樣化的伺服器產品線與軟硬體系統整合為核心,搭配資料中心營運管理與監控的解決方案,提供完整縝密的產品展示,尤其針對NVIDIAAI Factory的概念,打造專門設計架構以滿足最佳化的資料中心基礎設施,由於接續的AI應用將需要處理大量的AI模型所需的「tokens」能力,愈多的「tokens」就需要大量算力的支援,所以新的設計架構聚焦於效能與AI算力的提升。

但是同步得直接面對解決散熱的挑戰,所以在散熱系統的多樣化選擇兼顧氣冷與液冷式設計的機櫃系統,自然而然成為現場來賓們參觀的重要門道,也是華碩此次展示的重要亮點。

NVIDIA HGX、NVIDIA MGX與NVIDIA Blackwell架構全數到齊  迎接AI基礎設施的高速成長

進入展示空間,首先見到的是HGX架構的AI POD整機櫃式系統,可以搭載NVIDIA Blackwell與Blackwell Ultra處理器,NVIDIA HGX系統以實現在單一伺服器的效能擴展(Scale up)的指標性的設計而著稱,是滿足高效能運算需求的關鍵解決方案。

接續而來的就是MGX系列的解決方案,這是使用PCIe介面做為Scale Up的彈性應用的設計,強調可以輕鬆且彈性地進行AI算力的擴展,以滿足客戶多元應用的需求,華碩所主打的賣點是依據參考架構為主的設計並獲得NVIDIA所認證與效能驗證的產品線,滿足客戶建構自主AI算力基礎設施的需求,達成不同的AI應用所需要的AI基礎設施的最佳配置。

重頭戲是以NVIDIA Grace Blackwell架構及其相關產品線成為攤位關注的另一個焦點。全新的 Blackwell 架構將效能大舉地擴展提升,華碩打造以NVIDIA GB200 NVL72機櫃式解決方案,瞄準高階AI POD整機櫃式GB200/GB300 AI伺服器系統展示,這是一個包含72個Blackwell Ultra GPU和32個 NVIDIA Grace CPUs的龐大系統,整個AI POD整機櫃共有18個Compute Tray,以及9個Switch Tray的設計。

值得一提的,這款機櫃配置全水冷散熱系統設計,能夠將更多的算力壓縮到單一機櫃中,大幅提升能源效率和運算密度,展現下一世代極致的效能擴張的系統。

系列軟體解決方案與工具協助企業客戶加速開發AI應用

在軟體解決方案上,目前除了協助客戶完成前期AI伺服器機櫃的設計規劃、部署所需要的規劃軟體來打造AI基礎施建置之外,在機房維運與監控等落地應用,華碩一舉提供包括ACC、AIDC等一站式平台所需要的部署與營運需求解決方案,同時兼顧整個資料中心生命週期的管理需求。

再者,這次也展示與NVIDIA合作的AI代理人(Agentic AI)系統的展示,打造和部署擅長於推論、規劃和採取行動的客製化AI代理人系統,華碩進一步配置使用NVIDIA AI Workbench開發環境管理系統,讓AI應用開發者團隊靈活在本機或遠端的GPU上執行開發工作,實現從實驗、原型製作到概念驗證的互動式專案工作流程,提供企業開發自家的AI應用時享受一個快速上手與完整有效的工具。

華碩這次也吸取ChatGPT的概念推出AI Hub的軟體解決方案,助力員工使用大語言模型(LLM)應用時更為方便,目前AI Hub軟體解決方案已經整合到華碩的AI基礎設施產品組合之中,一舉將企業開發AI應用會用到的LLM、開源軟體、工具都貼心的先準備好,並與AI模型開發商、雲端服務商及垂直應用的系統整合商做各種產品與服務的整合推廣,讓企業客戶開發AI應用更得心應手,加速實現企業AI創新的願景。