TurboQuant壓縮技術問世 南韓多數專家仍看好記憶體需求增
- 蔡云瑄/綜合報導
Google Research發表大型語言模型(LLM)記憶體壓縮技術「TurboQuant」,聲稱可將AI推論所需的KV Cache容量壓縮至原本的6分之1,引起市場關注與震盪。南韓AI半導體與系統架構專家普遍持相反看法,認為市場誤解壓縮技術本質,企業反而會...
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字






