每日椽真:台灣主權AI應用明年啟動 | 台美無人機合作接棒 | Cerebras公開說明書的13個亮點 智慧應用 影音
貿澤電子
DForum0115

每日椽真:台灣主權AI應用明年啟動 | 台美無人機合作接棒 | Cerebras公開說明書的13個亮點

  • 陳奭璁

早安。

ChatGPT橫空出世,NVIDIA成為生成式AI應用爆發最大受惠者。近期較受關注的就是Cerebras,已提交IPO申請,將於NASDAQ上市,其目標籌資10億美元,上市後估值約達80億美元,其主力產品WSE-3處理器採用台積電5奈米製程,最大客戶為阿聯的AI公司Group 42,約佔2023全年營收83%。

不過,Cerebras至今仍未獲利,2022年虧損1.777億美元、2023年虧損1.272億美元,2024年上半則虧損6,660萬美元,顯見對新創公司而言,欲在研發金額龐大且代工價格高昂的AI晶片領域佔有一席之地難度相當高。

本文文末的編輯手記也整理出Cerebras公開說明書的13個亮點說明

另外,在2024中國算力大會上,中國資訊通訊研究院院長余曉暉解讀最新發布的《中國綜合算力指數報告2024》時,直指中國AI晶片生態比較「碎片化」,仍是一個非常大挑戰,而「算力互聯成網」是下一步要推動的重要工作
 

以下是今日5則科技供應鏈重點新聞摘要:

台美無人機合作接棒 奧克拉荷馬州有望成台廠測試地

繼美國26家無人機團9月底來訪後,台美合作又再推進一步,最新進展則是由上月底甫成立的「台灣卓越無人機海外商機聯盟」正式迎來第一個合作盟友,日前聯盟代表漢翔與奧克拉荷馬州國防產業協會簽署MOU,目前雙方已有共識,未來將參與彼此的國際商業計畫,並共同推動無人機聯合行銷。

據了解,此次由奧克拉荷馬州能源暨環境廳長Ken McQueen率領該州國防產業協會逾10家無人機相關廠商訪台,此行除了與台灣正式結盟外,預計也會拜訪交通部民航局、中光電、漢翔等業者,並前往嘉義亞創中心拜訪無人機廠商。

Speak推AI口語家教 以台灣為基地拓展華語市場

Speak總部位於舊金山,整體員工約75人,目前在台灣尚無實體據點,僅2~3位員工。亞洲市場部分,2019年在南韓推出服務,2023年在日本上線,在台灣則是4月剛上線。

Speak服務4月在台上線後,團隊觀察,台灣用戶的成長動能高於先前投入的南韓和日本,因此有意加碼投入台灣市場開發。

中國全球算力前二大 3年內加快AI資料中心建設

中國與美國在算力規模上位居全球前兩大,而中國官方也首次公布目前全國算力規模與進展。中國工信部總工程師趙志國對外透露,目前中國運行中的算力中心機架總規模已超過830萬標準機架,算力總規模達到246 EFLOPS(2,460兆次浮點運算),位居世界前列。

2024中國算力大會日前在河南鄭州舉行,中國工業和訊息化部總工程師趙志國在大會開幕做出上述表示,透露中國目前的算力數據。

提供全球算力卻忽略自己 台灣主權AI應用明年啟動

國科會主委吳誠文日前在立法院備詢時,有多名立委關切Oxford insights公布2023年全球AI準備度台灣世界排名第19名、AI算力第106名之事。吳誠文回應表示,台灣主要供給算力給全世界,卻忽略自己的應用。2025年開始國科會將投入新台幣40餘億元建置自主的AI資料中心,積極做AI應用開發,協助產業投入,各界可拭目以待。

當前全球與生成式AI(GenAI)有關的GPU都來自台灣,HBM主要來自南韓。至於全球9成以上的AI伺服器也是由台灣廠商組裝出貨。由於GPU極為昂貴,目前的大買家主要是美國的雲端和軟體巨擘如Google、微軟(Microsoft)、Meta、亞馬遜(Amazon)等。台灣有財力購買並自建AI資料中心的公司和機構仍屬有限。現在政府決定出錢當買家,並且宣示主權AI的決心。

誰說ODM只能做黑手?這家自研AI晶片IP受青睞、客戶自己挑

AI PC預計2025年大量出貨,其中一項特色,是在NB的鏡頭,提供自動開關、調整光線與防偷窺,且需要兼顧省電的功能。IC設計業者將NPU與ISP(影像處理器)結合,讓ISP具備AI功能,2024年底量產,而英業達正是背後的IP供應商。

英業達自研AI晶片IP有成,已有IC客戶晶片開始量產。英業達AI晶片設計處資深處長徐國翰指出,客戶晶片主要應用在NB或手機,其終端產品可望在2025年問世,此外,也有客戶打算放入耳機內做手勢辨識。

編輯手記:

以下是Cerebras Systems提交給SEC的S-1/A文件中的13個重點:

1. Cerebras Systems是一家人工智慧(AI)計算系統開發公司,專門設計用於深度學習和AI模型訓練的創新處理器架構。該公司的旗艦產品是Cerebras Wafer-Scale Engine(WSE),是一種專門為深度學習和AI運算設計的大規模晶片。

2. Cerebras的Wafer-Scale Engine(WSE)被描述為全球最大的半導體晶片,擁有1.2萬億個電晶體,比傳統GPU晶片大100倍,目標市場為需要大量計算資源的AI和深度學習應用領域。

3. Cerebras與台積電(TSMC)建立了長期合作關係,TSMC負責生產Cerebras的Wafer-Scale Engine晶片。該合作協議中強調,台積電不對生產能力作出承諾,並且所有交貨安排需根據台積電的生產排程進行調整。

4. Cerebras認為其主要競爭對手為NVIDIA及其他專門為AI設計硬體解決方案的公司,如Graphcore和SambaNova。文件中指出,雖然這些公司在市場上擁有較大份額,但Cerebras憑藉其獨特技術有望在未來奪取更多市場佔有率。

5. Cerebras提到其主要客戶包括多家大型科技公司及研究機構,如Google、Microsoft等,這些公司利用Cerebras的系統進行大規模AI模型訓練。

6. Cerebras的Wafer-Scale Engine晶片擁有 400,000個核心,用於支援大量並行計算和高效能深度學習模型訓練;WSE的浮點運算速度達到 9個PetaFLOPS(每秒千萬億次浮點運算),能夠大幅度提升AI訓練的速度。

7.  台積電生產Cerebras晶圓的交貨時間取決於當前產能情況,一般交貨週期約為 4到6週。若出現產能緊張情況,交貨時間可能延長​。

8.Cerebras晶片的生產良率依賴於台積電的製程技術。良率下降會顯著影響晶片成本,且公司在文件中指出,良率變化可能導致 30%-50% 的成本波動。

9.Cerebras的晶片擁有 18GB的內部SRAM存儲,這些存儲空間專門用於加速深度學習模型的計算過程,比傳統GPU的存儲容量多數倍。

10. WSE晶片的功率需求為 15kW,相較於一般AI運算設備的功率需求(2-4kW)顯著增加,需要特別設計的散熱系統來維持晶片運行。

11. Cerebras的WSE晶片能將深度學習模型的訓練時間從數週縮短到 數小時,實現10倍以上的速度提升。

12. 截至報告期,Cerebras擁有約 300名員工,其中超過60%為技術人員,這些人員主要集中在研發和產品開發部門​;公司每年將超過 40%的營收 用於研發。

13. Cerebras在過去一年中的營收增長率達到 120%,主要來自於AI市場需求的快速增長和新客戶的訂單增加。

 
責任編輯:陳奭璁