微軟與OpenAI深化合作 攜手自研AI晶片 智慧應用 影音
vishay
ST Microsite

微軟與OpenAI深化合作 攜手自研AI晶片

  • 蔡靜珊綜合報導

微軟Athena AI晶片的開發歷時多年,現與OpenAI合作,最快可能在2024年開始大規模供內部使用。符世旻攝
微軟Athena AI晶片的開發歷時多年,現與OpenAI合作,最快可能在2024年開始大規模供內部使用。符世旻攝

據傳,微軟(Microsoft)與OpenAI合作開發代號為Athena(雅典娜,希臘智慧女神)的一款人工智慧(AI)晶片,採用台積電5奈米製程,目的是應用於大型語言模型(LLM)的訓練以及推論等內部需求。據稱,在OpenAI的ChatGPT聊天機器人取得成功以後,微軟就加速了Athena的推出時程。

外界評論,隨著需求上升且變得更加多元化,對於超大規模雲端服務業者(Hyperscaler)而言,開發出針對自身架構進行優化的特殊AI晶片,以及優化過而非只針對NVIDIA CUDA的演算法,是很重要的一件事,畢竟這關乎雲端業務的營運成本,以及能不能為客戶提供多種多樣的選項,而不是讓客戶只能選擇價格高昂的NVIDIA方案。

據The Information引述消息人士說法指出,微軟Athena AI晶片的開發早在2019年就已經開始,目標是表現得比目前從外部採購而來的產品還要更好,以此節省投入在AI領域高昂的時間與金錢成本。這款晶片目前正由微軟與OpenAI組成的團隊進行測試當中,可能最快在2024年開始大規模提供雙方內部使用。

目前AI晶片領域由市場佔有率高達88%的NVIDIA主導。然而,超大規模雲端服務業者針對LLM訓練需求,企業投入自主開發者所在多有,除了微軟Athena以外,還包括亞馬遜(Amazon)的Trainium與Inferentia處理器架構,或是Google的張量處理器(TPU)等。

VentureBeat引述Gartner分析指出,之所以出現AI晶片自研風潮,原因在於高階生成式AI(Generative)模型規模的成長速度,持續高過訓練所需要的運算能力;隨著下一代模型參數將達到上兆等級,科技創新大廠希望擁有多樣化的運算加速器以加速訓練,因為比起採用傳統商品化的技術途徑,客製化的AI加速器策略,更能協助達到前所未有的規模經濟效益。

對於加速的需求,同樣涉及應用於推論領域的AI晶片。J Gold Associates分析師指出,NVIDIA效能強大的通用型AI晶片,以及平行運算平台CUDA,是專門針對機器學習訓練需求而設計。至於推論所需要的效能,一般會比訓練來得低,而且因為推論最終會是一塊很大的市場,所以業者針對此市場需求推出產品,是很重要的布局。

J Gold Associates同時指出,作為10年前深度學習革命的重要推手,NVIDIA成功建立起勢力強大的平台策略,以及以軟體為中心的途徑,並在對於GPU有龐大需求的生成式AI時代中大放異彩。因此,Athena的存在,並不會對於NVIDIA在AI與機器學習領域的地位造成多大的威脅。不過,這些超大規模雲端服務業者想必未來還是會繼續自主開發晶片,這不僅是為了與NVIDIA競爭,也是與英特爾(Intel)通用雲端運算的競逐。

責任編輯:毛履兆