軍事通訊—說碼人加密
軍事通訊技不斷精進,操作通訊系統的兵種就愈分愈細,最早只要一個旗兵。進入電子戰後,通訊兵的分工還挺細的。例如話務通訊兵負責發送訊號,而譯電通訊兵負責接收訊號。在體制上雖然是不同功能,但作戰時,可沒有那麼講究排場,話務和電譯就由同一位通訊兵包辦。這個兵種往往腦力操勞,要背誦一堆編碼,防止通訊的內容被竊聽。如何想出讓敵人無法破解的密碼,更是兵家必爭。第二次大戰時,德國使用Enigma加密機,配備於U-boat潛艇,行跡飄忽不定,在大西洋擊沉大量盟軍船隻,急得英國首相邱吉爾(Winston Churchill )直跳腳。今日以自然語言AI技術模擬通訊者的生物特徵及說話特性,成為加密的金鑰,產生AI說碼人系統的發展是一個令人感興趣的領域。模擬通訊者的客製化特性,成為加密的金鑰,軍隊早已採用,是所謂的「說碼人」(Code Talkers)加密。說碼人其實是話務/譯電通訊兵,不同之處是他們像中國以前祕密幫派,會中兄弟談機密時,就說起「幫派切口」,旁人聽不懂。甲午戰爭時清朝曾以溫州話加密;第一次世界大戰時,美國採用巧克陶族(Choctaw)的印第安語傳送機密軍事訊息,成功地攻擊德軍。德、日兩國學到教訓,在第一次大戰後送一堆學生到美國學印第安語如Cherokee、Choctaw,和Comanche。美國軍方發現此一現象後,擔心德、日兩國有能力解碼,曾經考慮放棄「說碼人」制度。此時一位工程師,也是第一次世界大戰的退役軍人江士頓(Philip Johnston)建議以鮮為人知的納瓦荷語言來編碼。江士頓從小生長在納瓦荷印第安保留區,和納瓦荷族人交往,熟悉納瓦荷語言及習俗。納瓦荷的語言結構複雜,較以前的印第安語言更適合用於加密。經過江士頓展示後,美國海軍陸戰隊決定採用這個提案,立即徵召僱用29名納瓦荷族原住民,由他們開始編碼工作,總共使用411個字彙。海軍陸戰隊在第一層編碼上再以字詞取代(Word Substitution),做第二層的加密,例如「Gini」這個納瓦荷字翻成英文是「Chicken Hawk」,而真正的軍事用語是「俯衝轟炸機」(Dive Bomber)。第二次大戰期間美國總共動用400位納瓦荷族的說碼人,這個密碼一直到大戰結束,都未曾被破解。很諷刺的是,1861年時,美國白人將最早的旗語通訊用於和納瓦荷族的作戰,而在第二次大戰期間卻靠納瓦荷族來協助美軍進行作戰通訊,編入美國海軍陸戰隊。2002年電影《獵風行動》敘述1944年,美軍在太平洋塞班島戰場上,納瓦荷族說碼人的故事。這部電影點出很基本的人性問題。軍方必須全力保護「加解密機」,可是當說碼人這個「人肉加解密機」有落入敵人手中的疑慮時,必須先行毀滅。奉命執行毀滅任務的同袍如何下得了手?這個矛盾成為電影詮釋的重點。當前科技發展已經實現加密的自動化和數據化,不再需要人工的介入。然而,利用自然語言人工智慧(AI)技術來模擬通訊者的生物特徵和說話特性,作為加密的金鑰,這是否能夠強化加密的效果呢?AI說碼人系統的發展是一個引人注目的領域。通過應用自然語言處理和機器學習技術,AI能夠模擬通訊者的生物特徵和說話風格,成為加密的關鍵。然而,要建立一個全面且安全的說碼人系統,需要深入瞭解特定語言、方言以及文化背景。此外,發展強大且安全的通訊系統還需要考慮超越僅透過文字互動可以實現的因素。目前,AI說碼人系統的發展仍需更多的研究和努力。
Edge AI產業來了嗎?
相較於目前大語言模型應用絕大部分在雲端伺服器上推論,Edge AI(邊緣AI)強調在裝置上獨立執行AI模型。這種架構差異在於:可大幅降低因網路傳輸造成的延遲,確保即時反應,即使在無網路離線下也能運作;資料不上傳雲端,確保資料私密與安全性。Edge AI有機會滿足許多新應用場域中對低延遲、高私密的關鍵要求。這半年來,透過技術突破、產業需求,以及發展軌跡,我們看到Edge AI的產業輪廓,正逐漸形成。模型演算法的高度競爭使得Edge端可用的AI模型愈來愈強大。近年來出現許多參數量在13B~70B級的精簡模型,透過知識蒸餾、量化壓縮、模型剪枝以及多專家混合(MoE)等技術,這些小模型在使用較少參數的同時還能大幅提升性能,縮小與大型模型的差距 。同時也配備了各種終端應用極度關鍵的推理(reasoning)能力,包括控制、決策、因果、規劃等。SoC與記憶體規格配置同樣是促成Edge AI崛起的要素。目前主流高階智慧型手機、NB的NPU(AI運算核心)已經接近100 TOPS,足夠讓這些終端模型每秒生成數十個token(語意單元),滿足應用場域(文字、語音對話)的生成品質要求。同時,透過低位元精度(如8或4位元)來表示模型權重,有助於大幅降低總位元數,使現有記憶體配置即可支援終端AI推論,釋放AI從雲端走向終端的巨大潛力。另一方面,各大廠商也在其晶片產品藍圖中,明確規劃未來的算力提升,進一步強化Edge AI可行性與效能。在初期應用情境中,智慧型手機成為Edge AI生態重要橋樑。手機不僅是首批受惠於AI能力提升的裝置,更自然作為雲端與各類在地智慧裝置之間的橋梁。透過手機,無線耳機、汽車、AR眼鏡等裝置都能與雲端和手機上的AI模型連動,實現多模態的Edge AI應用。例如,耳機可使用手機(AI模型)即時翻譯語音,車載系統可依靠手機輔助娛樂訊息,眼鏡則利用手機處理視覺、語音任務。智慧手機作為隨身超級終端,串聯各種周邊裝置,歷史軌跡也告訴我們,當網路封包(packet)的成本逐步下降,通訊功能便普及至各類終端設備。10年後(2017 年),行動產業達到高峰,無論是應用生態系或硬體供應鏈都蓬勃發展。同樣地,隨著token成本不斷下降,AI 能力延伸至新型態終端設備,觸發全新應用場景,也是值得期待。延伸報導專家講堂:鑑往知來:packet(網際網路)vs. token(大語言模型)垂直產業中也聽到應用面需求。過去手機SoC供應商的技術團隊,首要工作是優化品牌手機中相機應用的智慧功能,但從2024年開始,優化手機中LLM執行效率,成了品牌客戶的關鍵需求。工業場域中,也對於推理功能加速決策效益,工業機器人的執行效率多所期待。過去幾年,NAS在中小企業中大量採用,年複合成長率超過 15%,顯示這類用戶對資料管理與在地運算的高度需求。如今,這些用戶也期待能在終端設備上,享受到大型語言模型所帶來的自動化與知識管理功能。近來市場數據也顯示Edge AI正逐漸萌芽。在最新的季報中,蘋果(Apple)新款M4晶片強調AI效能,推動2025年第1季Mac營收年增15.5%,更值得注意的是,新晶片也在2024下半年吸引新用戶進入蘋果體系。高通(Qualcomm)因手機與車用AI需求激增,手機業務創新高,汽車業務更年增55%,公司也宣稱「Edge AI是未來業務成長主要推力」。NVIDIA的Orin車用AI平台單季營收年增103%,並與聯發科合作布局一系列全新終端SoC。晶片設計商與設備供應商正從Edge AI中實際獲利。也同時看到OpenAI 以約 65 億美元的全股票交易方式收購了由前蘋果首席設計長 Jony Ive 共同創立的 AI 硬體新創公司 io。這股趨勢Edge AI已從概念走向實質商業成長。儘管前景看好,Edge AI推廣仍面臨多重挑戰。首先是應用場域的擴展:用戶需求差異極大,不同行業與裝置對模型大小、功能要求各異,業者須在通用性與客製化間取得平衡,如何取得具泛化能力的精簡模型,解決場域問題,至關重要。其次是功耗與效能的權衡:終端裝置受限於電池與散熱條件,高複雜推理恐導致過熱與續航縮短,對晶片設計與電源管理設下更高要求。再者,生態系初期碎片化,硬體架構多、軟體缺乏統一標準,讓開發者必須針對各平台個別調適,增加成本與阻礙創新。這些挑戰若未克服,恐將削弱Edge AI的經濟性與可擴展性。不過,回顧行動產業的發展歷程,也為今日的Edge AI前瞻團隊提供寶貴借鏡。
鑑往知來:Apps(行動網路)vs. Agents(大語言模型)
在前一文中,我們類比網際網路(Internet)以及現今大型語言模型(LLM)的發展軌跡,特別是網際網路的核心傳輸單位—封包(packet),LLM生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們試著描繪出token驅動的AI未來發展軌跡,並預判在產品形態、服務模式與產業價值鏈上的可能樣貌。另一可供借鏡的歷程,是應用程式(App)在行動網路時代所引爆的創新與變革。如今,在LLM/LVM多模態大模型推動下,一個以「Agent」為核心的應用生態正逐步成形。延續上文,我們嘗試從App的崛起歷程,看見代理(Agent)以及邊緣AI(Edge AI)未來的可能路徑。2007年開始,行動App實現即時互動與高速資料交換,行動用戶大量增加,源自於網路封包傳輸成本逐步下降,智慧型手機的運算效能與續航力的進展。App Store的出現更將過去分散、複雜的網頁互動模式,整合為圖形化、易於操作的應用程式介面,大幅降低使用門檻,使數位服務真正「行動化」、「普及化」。App 不再只是單一功能工具,更透過推播、定位、社群整合等特性,深度嵌入使用者生活。這也帶動「長尾效應」—不僅少數爆紅應用,而是無數利基型App滿足多元、個人化的需求。這場從網頁到App的轉變,不只是介面革新,更興起全新App驅動的生態系,翻轉整個數位服務的生產與分配模式,也同時快速推升行動裝置的需求(2017年達到高峰)。App Store 建構出一套雙邊市場機制,一端連結開發者創新、另一端連結全球使用者,使原本無法規模化的服務得以商品化、在地化與全球化。過去嶄露頭角的數位服務如Uber、LINE、Instagram皆倚賴App生態興起,而App的爆發也帶動晶片、感測器、模組、電池、記憶體等硬體需求,重塑行動裝置供應鏈結構,並促成新興品牌與 ODM/OEM 的崛起。Statista統計顯示,全球App下載量自2010年的60億次,成長至2023年的1,430億次,反映出App模式背後強大的規模經濟與網路效應。台灣廠商在這波行動化浪潮中,從晶圓代工、封裝測試到系統整合與 App 開發皆深度參與,建立完整供應鏈與生態網路。這段歷程不僅重塑行動產業結構,也為即將興起的AI代理(AI Agent)模式提供寶貴借鏡——當使用者介面再次從App進化為Agent,我們是否能搶先洞察使用需求、運算架構、標準制定與硬體整合的關鍵優勢?如果App是行動網路時代的使用介面,那麼由大模型LLM/LVM驅動的Agent,可能是 AI 時代的核心入口。Agent不僅理解自然語言(及各種感測訊號),還得具備任務規劃與執行能力,從單純對話升級為數位助理。透過多模態推理與工具鏈結,Agent的應用場景正快速擴展至自動化工作流程、專業諮詢、教育訓練與知識輔助等領域。未來極可能出現類似「Agent Store」的新型生態系,就如當年App Store一樣,匯集多樣化、可重組的智慧模組,滿足多樣性需求。這將加速硬體與軟體的分工整合,促進各種垂直應用場域(如工業、醫療、中小企業、消費者市場)中智慧代理的落地機會。隨著近來高效率推理模型的快速演進,以及LLM開源生態的蓬勃發展,更進一步推進這樣的可能性。同時,終端市場的實際需求也正在浮現,如中小企業的知識管理、自動化應用,以及工控領域中即時推理能力的渴望,也回應了市場的需要。終端裝置的硬體規格,也逐漸具備支撐Agent所需的AI算力與記憶體條件。隨著LLM開源社群快速演進,如13B等級模型已能在一般行動裝置上順利推理,token生成速度亦逐步接近應用需要,Edge AI的落地門檻正快速降低。根據預測,Edge AI晶片市場將自2023年的24億美元,成長至2033年的252億美元,年複合成長率高達26.5%。各大系統與晶片業者也已積極布局AI手機、車用SoC與AI PC平台。未來,Agent將可自然地嵌入手機、筆電、AR眼鏡、TWS耳機、機器人等多元終端裝置,成為新一代語言互動與任務導向操作的使用介面。當然,Agent技術的普及仍面臨諸多挑戰,除了使用者資料的授權與使用,日益增強的自主性也帶來安全、隱私、監管與倫理等層面的高度關注,技術本身的複雜度亦不容小覷。然而巧合的是,這些挑戰與機會的交織,恰如2007年行動網路時代初啟時的情境—從應用模式、生態系到硬體需求與供應鏈架構,皆醞釀著重塑的可能。Agent的發展,正釋出一種熟悉而微妙的訊號,預告另一波產業典範轉移的起點。
一個人武林的美麗與哀愁:論台積電的先進製程與封裝
從年初的CES 2025,3月的NVIDIA GTC,到4月台積電在北美的技術論壇,以及即將登場的COMPUTEX,這幾場科技大秀,在在顯示AI伺服器的發展與半導體先進製程及封裝技術,有著不可分割的緊密關係。幾年前NVIDIA執行長黃仁勳在媒體上說過幾次「摩爾定律已死」。當時我不太理解其中的涵義,直到最近讀完Stephen Witt所著《黃仁勳傳》(The Thinking Machine: Jensen Huang, Nvidia, and the World’s Most Coveted Microchip),才了解到個中道理。書中談論到由2012年到2022年,GPU運算能力增加10,00倍,其中屬於硬體的電晶體速度(clock rate)只增加2.5倍,換言之剩餘的400倍來自軟體程式及數學公式。400倍相對於2.5倍,自然會說摩爾定律已死,更何況NVIDIA在黃仁勳眼中一直是家軟體的公司。但是事實真的如此嗎?如果以NVIDIA GPU從2012年的Kepler到2022年Hopper GPU,製程技術由28奈米演進到4奈米,電晶體數目由71億顆,一口氣增加到800億顆;運算的單元CUDA core也從不到3000個,擴充到將近15,000個核心。雖然電晶體的速度僅增加2.5倍,但是由於單一晶片的運算核心的數目增加了,算力自然就大幅的提升。如果再加上CoWoS及3DIC的先進封裝技術,不僅將多個記憶體晶片(HBM)垂直堆疊在一起,而CoWoS技術更將GPU與記憶體晶片,能緊密地在水平方向擺放在一起。這些先進的封裝工藝,最重要的就是希望數位訊號這這些晶片中傳輸,能夠走最短的路徑。這樣一來不僅訊號傳輸的延遲可以縮短,功耗亦可以降低,算力自然就提升了。Blackwell GPU已經利用CoWoS技術,將2個GPU晶片無縫接軌地綁在一塊,下一代Rubin GPU將會擴充到4個GPU晶片連接一起。台積電更提出在2027年實現SoW(system on wafer)。也就是在矽晶圓上或其他形式的基板上,水平放置更多的GPU,甚至開始做GPU的堆疊。這些先進製程及封裝上的努力,無非是把更多的運算單元,及暫存的記憶資料,在很小的空間內完成執行,以增強其運算效能。依據此原則,同樣的在伺服器機櫃的設計,也是希望在一個機櫃內放置更多的GPU。因此GB系列一個機櫃內有72顆GPU,到了下一代Rubin會有144顆GPU,而Rubin Ultra更在一個機櫃內放置多達576顆GPU。機櫃的設計也由原先水平擺放的tray盤,改為直立式的插槽,以增加GPU密度。這一切硬體上的努力,無非是要提升整體的運算效能,但也衍伸出電源的供應及如何散熱的問題。GB伺服器系列一個機櫃所需的功率在120~150KW,Rubin Ultra將會達到600 KW~1MW。若是一個數據中心擁有500個Rubin Ultra機櫃,那就約略等於一個核子反應爐所產出的電力。屆時Rubin Ultra的散熱,恐怕只有浸潤式的液冷一途了。台積電在4月的北美技術論壇,在先進封裝領域著墨甚多。除了SoW、矽光子、3DIC之外,更規劃在電源最後一級的轉換IVR(integrated voltage regulator),嵌入至CoWoS內的中介層(interposer)。所以在先進製程上,台積電已經是一個人的武林,不久的將來在先進封裝領域,台積電會是另一個一個人的武林。一個人的武林所衍生出來的就是,如影隨行的反托拉斯法(antitrust)。為了淡化台積電在先進製程的主宰地位,董事長魏哲家曾建議將先進封裝也納入半導體的範疇,藉由分母的擴大以降低百分比率。然而目前實際上的發展,恐未能如其所願。英特爾(Intel)之前為了解決CPU市場獨佔的問題,不僅付給超微(AMD)一筆和解金,並技巧地讓超微成為有實力的競爭者。先進封裝相較於先進製程,可以有較多的可行解決方案,群策群力,不必然是一個人的武林。美麗與哀愁,端視我們的態度與做法。
中國曝光機發展現況:EUV
中國工信部宣布DUV訊息的同時,上海微電子也發布其2023年申請的EUV專利、2024年9月專利申請公開的消息。延伸報導專家講堂:中國曝光機發展現況:DUV上海微電子的EUV使用的也是現在商業主流的二氧化碳(CO2)雷射,波長為10.6奈米。鍚的液滴(droplet)先用釹釔鋁石榴石雷射(Nd:YAG laser)打成圓盤狀後,再被CO2雷射離子化(ionized)變成鍚電漿(plasma),然後其外層電子向低能量態躍遷(transition),釋出波長約為13.5奈米的光子。之所以要用如此複雜的工序來產生EUV光源,是因為在此波長沒有自然的物質的能階差可以產生如此短的波長。選擇13.5奈米是因為波長再短一些,就變成X光(0.01奈米~10奈米)。EUV也很可能是矽基半導體技術的最後一種光源。矽的共價鍵(covalent bond)長度為0.543奈米,而要形成一個塊材,至少也要有10幾20個原子,否則介面的效應就會嚴重影響電子於其中的行徑。13.5奈米光的解析度以及應有的工程努力如加大數值孔徑等—最多再加上多重曝光—要處理這樣的臨界尺寸儘夠用了。所以上海微電子的專利的權利請求(patent claim)主要在光源之外的系統。至於原型機或量產機型的交付,沒有官方宣布或較正規新聞。2024年12月30日哈爾濱工業大學因「放電等離子體極紫外光刻光源」工作獲得中國黑龍江省的科技創新成果轉化大賽的一等獎。這獎只是地方獎項,能引起後續新聞報導自然是因為它牽涉到EUV的光源產生。它產生光源的方式與前述的以CO2雷射來離子化圓盤鍚滴粒,藉以產生13.5奈米光源的工作方式—雷射產生電漿(Laser-Produced Plasma;LPP)不同,它是施加高電壓藉以離子化鍚滴粒產生13.5奈米光源,此種方法稱放電產生電漿(Discharge-Produced Plasma;DPP)。報導中說它產生的線寬較窄(narrow linewidth)—也就是所有光的波長較集中於13.5奈米、功耗較低。二者說法都有誤導之嫌。LPP與DPP產生的EUV光都不是相干的(coherent)。如果硬要比較的話,LPP產生的光線寬較窄,但二者均可以經濾光器(filter)將線寬控制在可接受範圍內。而DPP的原始功耗較低,恰恰好成為當初與LPP競爭成為EUV光源候選人時未能雀屏中選的主要原因。在相同的能源轉換效率(energy conversion efficiency)條件下,光源較高的功率輸出代表較強的光亮度(light luminosity),可以用較短的時間完成曝光,提高曝光機吞吐量。DPP EUV能量的提升(scale up)較為困難,因此用來當量產機台的光源挑戰也更大。最後是在2025年3月在《中國激光》期刊上中國中科院上海光學精密機械研究所由林楠領導團隊所發表的〈1um激光激發固體Sn靶等離子體EUV幅射特性實驗研究〉。林楠曾服務於ASML光源團隊,對此題目的產業商業化考慮應該十分熟悉。文章中的1微米固態雷射(solid state laser)使用的就是前述用來將鍚滴粒打成盤狀的Nd:YAG雷射。固態雷射由於其體積較緊緻(compact)、電光轉換效率(electrical-to-optical conversion rate)較高(~20%),而且目前輸出功率已達千瓦級,未來可能可以提升至萬瓦級,有望取代CO2雷射,成為驅動EUV的主要雷射。文中指實驗的能量轉換效率已達3.42%,若用已商業化的1kW固態雷射,已可來做曝光驗證、光罩檢測(mask inspection)等工作,並且在一定條件下,進一步用於先進節點的臨界尺度以及疉加精度的量測。也就是說,這是一個未來EUV機台的研究起始點。產業此時的現實考慮是從CO2雷射波長10.6微米轉換成Nd:YAG雷射波長1微米對於光源次系統是一個全新的轉換,所有的工程工作必須重新來過,而且CO2雷射用於LPP EUV商業化已久,目前的成本遠低固態雷射的。所以這個工作更傾向於對未來可能發展方向的研究準備,對於目前的先進製程的突破,短期間內是使不上力的。近期的這些報導距離真正的工程實施都有相當的距離,進步也比較片面。一個EUV曝光機包括EUV光源、光學系統、真空系統、光罩版台及夾具(reticle stage and clamping)、晶圓台(wafer stage)、熱管理(thermal management)、計量和感測器(metrology and sensors)、控制電子設備(control electronics)以及軟體及韌體(firmware),大大小小的零組件計100,000個以上,其中很多零件是專為EUV機台量身定製的。建立此一龐大、複雜、精確的供應鏈隊伍的難度,可能更甚於對單一技術課題的突破,我認為這是中國在發展自有曝光機的最大挑戰。
中國曝光機發展現況:DUV
在中美貿易戰中,美方施力的重點在於箝制中國高科技的發展的進程,特別是半導體、人工智慧和量子計算,而前二者息息相關。 在半導體方面,美國的管制近乎遍及全產業鏈,從設計工具(EDA)、產品、製程設備乃於材料的禁運,中國自然是以國產替代以提高自給率,這也是涵蓋全產業鏈的回應。 中國在半導體設備領域的弱點包括電子束測試機(e-beam tester)、離子植入機(ion implanter)和曝光機(lithography equipment)。 電子束測試機是量測機台,基本上是用來偵測除錯,不是製造過程的一部分。離子植入機—特別是高能量(~1MeV)的,對於高壓碳化矽(SiC)MOSFET的製程至關重要。現在的電動汽車電壓已早從600V邁向800V、1200V。沒有高能量離子植入機無法製作車規高壓功率元件,對於中國電子產業的零件自製率影響巨大。 最令人關注的自然是曝光機(lithography equipment)。曝光機的能力代表先進製程的終極解析度(resolution),又與先進技術節點(technology node)直接相關。先進製程的主要應用之一是與算力高度相關的各式XPU,特別是專注於人工智慧應用的GPU;另一個應用也是在人工智慧晶片架構中的高頻寬記憶體(High Bandwidth Memory;HBM)。 從2024年9月起,中國就陸陸續續的傳出各式曝光機進展的相關消息,對於全世界的半導體產業,這自然是頭等的新聞焦點。 首先是中國工信部指導目録中的DUV曝光機,在2024年9月公布。 本質上,這就是一台乾式的DUV曝光機,光源是氟化氬(ArF)的準分子(excimer)雷射,氟化氬雷射波長為193奈米 。 此曝光機的解析度為65奈米,如果假設系統中其他性質都已達最佳化,則其物鏡(objective lens;系統中用於收集光線、用以呈像的主要透鏡)的數值孔徑(NA,愈大解析度愈好)推算起來大概是0.75。如果要進一步改善解析度,還要經過另一陣子的努力以達目前產業前沿水準0.93的數值孔徑。也就是說,在光學系統的發展目前還處於較早期階段。 至於其疊加精度(overlay accuracy;上下層圖案的對齊精度)為8奈米。要能產生65奈米臨界尺寸(Critical Dimension;CD)的製程,上下層的疉加精度要達臨界尺度的20%左右,也就是13奈米。如果要做雙重曝光(double exposure),則疊加精度必須提高到13/2奈米=6.5奈米。顯然此台曝光機目前的解析度就是65奈米,而且無法透過雙重曝光的手段進一步提升製程的解析度。 再往前的路,除了前面所述在物鏡的數值孔徑需持續提升之外,另外還需要往浸潤式(immersion)方向移動,利用水的折射率(refractive index)1.44較真空的折射率1為大的因素,提高曝光機的整機解析度,這樣才可能達到28奈米的解析度。至於像FinFET這樣的精密元件,部分製程就要動用到雙重乃至於多重曝光。浸潤式曝光機使用新機制以改變波長,自然要面臨新的問題,譬如水的純淨度的控制以給水溫均勻恆定的維持等。這個部分自然也有機構早已從事研發,譬如中國中科院長春光學精密機械與物理研究所正在開發的數值孔徑為0.8的浸潤式物鏡;承擔浸潤式曝光機的光源攻關任務的是中國中科院光電院、微電子所孵化出來的科益虹源;電源模組則是由中國中科院安徽光機所的團隊承擔開發任務。多梯次技術平行開發是可以想像的技術發展方式。 自2023年以來偶有上海微電子已開始交付其28奈米浸潤式DUV的新聞,機型為SSA/800-10W,疊加精度為1.9奈米,最近一次的傳聞為2025年1月7日交付。惟上海微電子公司產品目錄無此型號,沒有官方發布,亦無可靠媒體報導。根據其型號中的10W字樣,此機型最多為原型機,因為其光源能量不足,無法支撐量產所需之吞吐量(throughput)。這條工信部指導目録的消息沒有公司送原型機(prototype)到晶圓廠用線上製程調適機台的後續報導,所以出貨與否未可知;而且從原型機到量產機,總是要有好些時日。 至於前一代的90奈米 DUV機台已自2022年交付過幾台,初期主要的問題是系統不夠穩定、down time太長、因光源功率不足(20W)致使設備吞吐量太低。所以,這條新聞對於中國積極發展曝光機國產替代的意義要重於先進技術的實際突圍。
DRAM 製程發展方向:3D DRAM
從20奈米以後,DRAM製程開始龜速前行。從19奈米到11奈米之間,以每次1~2奈米的速度進展,跌跌撞撞地經歷1x、1y、1z、1a、1b、1c以及未來的1d,共計7個製程。雖然現在仍使用平面(planar)DRAM製程,卻早已經大幅的利用與晶圓垂直的第三維度,使得DRAM在效能、功率上,還能有實質的提升;在晶片的密度上進展比較遲緩,看來有點雞肋,但是對於有些應用—譬如高頻寛記憶體(HBM),稍為提升密度還是有實際用處的。要達到HBM每個世代的記憶體容量標準,只有特定的製程世代有能力提高到如此高容量的記憶體晶片。但是在每位元成本方面,製程的推進因為製程變得複雜,對於降低位元成本已毫無貢獻。以三星電子(Samsung Electronics)現在的1b製程為例,就使用5層EUV,因而所費不貲。DRAM市場短期內不會平白消失,但是如果其製程推進還是繼續如此緩慢,仍然會逐漸失去其高科技產業的特性;高科技產業之所以能獲取高額的利潤,是因為其科技的快速推進可以重複運作。現在DRAM製程的緩慢推進、乃至於停滯是DRAM業者共同的夢靨。10奈米以下,目前各DRAM業者共同的技術推進方向大致是3D DRAM,只有三星會在1d製程之後試圖導入垂直通道電晶體(Vertical Channel Transistor;VCT)。垂直通道電晶體基本上是將晶圓上平面電晶體的結構豎著長,減少每記憶體單元的底部面積,從傳統的6f2縮小為4f2,其中f(feature size)為半導體製程的特徴尺寸,譬如半金屬間距(half metal pitch)。這樣的製程推進,大概稍大於10奈米級製程推進一個世代的效益,然而這只是一次性的方法—下一步可沒另一個方向可以再利用了。最主要的是垂直通道電晶體與未來的3D DRAM製程完全不沾邊,研發的努力只能使用一陣子。因此並不是所有DRAM公司都做此想。3D DRAM的引入第一個問題不是為何要引入3D製程,而是為什麼到此時才引入3D製程?畢竟所有的DRAM大廠都有3D NAND的技術。當2013~2014年3D NAND技術開始被引入時,DRAM的製程也早已在25~20奈米左右,即將進入龜速前進的10奈米級製程年代。用已經成熟的3D製程技術來推進舉步維艱的DRAM製程似乎是理所當然。問題還是出在DRAM的結構上。一個線路要能夠用3D製程來製作,有幾個先決的條件。首要的是線路要有高度的重複性,無疑的,記憶體的陣列是3D製程應用的首選。在此點上,DRAM是符合的。再來是各層記憶體之間要有可以共用的材料。以TCAT(Terabit Cell Array Transistor)3D NAND的技術為例,各層之間記憶體單元的閘極控制(gate control)材料複晶(polysilicon)以及電荷陷阱(charge trap;用來儲存NAND訊號的單元)材料氮化矽(silicon nitride)是可以在各層之間共用的,因此垂直方向的製程整合相對簡單,32層的記憶體可以用4、5層光罩來完成。但是3D DRAM的結構就沒有這麼幸運,電容部分必須完全隔開以避免記憶體單元之間的訊號交談(cross talk);通道部分因為DRAM追求高機動性(high mobility),不能用在高寬高比深溝中的輕摻雜(light doped)複晶做半導體,各層記憶體之間可以共用的材料只有字線或位元線,端看3D DRAM是要求垂直製程的簡化或面積的極小化。另外,DRAM效能遠比NAND為高,所容許的訊號延遲(latency)很低。各層記憶體之間因緊密相鄰所產生的感應電容(induced capacitance)等效應都會降低DRAM的表現以及訊號的協同,因此3D DRAM的確比3D NAND的工程問題要複雜得多,這也解釋為何3D DRAM製程遲遲沒有上路。無論如何,DRAM產業維持高科技產業特性除3D DRAM外已幾乎沒有前路,譬如以前在文獻中經常被提及的無電容(capacitorless)DRAM,其資料保留時間(data retention time)遠不能與目前的DRAM相比。2023年7月長鑫在IEEE的International Memory Workshop發表其對3D DRAM的規劃,三星也在同年的Symposium on VLSI Technology and Circuits發表其3D DRAM的技術論文。可見關於3D DRAM的議題各公司早已準備很久,只是研發結果發表的時機及場合各有考量罷了。根據長鑫的設計,2D DRAM的電容—電晶體垂直堆疊的組合在3D DRAM中就被橫擺著成為一層中的一個記憶體單元。長鑫模擬出來的記憶體單元有多大呢?橫躺的電容約500奈米、電晶體200奈米,加上字線和位元線,一個記憶體單元橫方向的尺度接近1微米。長鑫採取的製程是字線垂直到下邊的接觸平面,這個做法會讓記憶體單元的面積稍大,但是垂直的整合製程會比較簡單。在技術發展的初期,先做出來再做好是合理的策略。至於記憶體陣列旁的周邊線路(peripheral circuits),師3D NAND的故智,會在另外的晶片上製造,然後用混合鍵合(hybrid bonding)與上層的單晶(monolithic)記憶體多層陣列封裝在一起。字線和位元元線的金屬間距都是70奈米。用以前DRAM製程定義半金屬間距來看,這個起始製程大概就是35奈米節點,與3D NAND剛開始時的30~40奈米製程相彷。這樣的3D DRAM堆疊32層後,所得的記憶體容量與1b的2D製程相彷。堆疊64層後容量就與10奈米以下第一世代製程0a相彷。這個堆疊是個可以重複的進展,DRAM的高科技產業屬性因此得以維持。目前有發布大概推出時程的是三星,大概在2026~2028年之間,與2D平面製程會並存一陣子,這與3D NAND剛出來時的策略也相同。假設3D DRAM的確是可行的技術,有2點值得評論。第一個是高頻寬記憶體是否會沿著目前的方法向前推進?目前的HBM是多個DRAM晶片以先進封裝堆疊以達到較大容量,其中先進封裝的費用佔總成本的相當部分。如果記憶體容量可以用單晶的3D製程來增加,成本有可能降低。但是這是比較長遠的事。另外一個議題有關於地緣政治。長鑫在其文章中說是業界第一次揭露3D DRAM技術,其實業界各自默默研發都很久了,但是長鑫對於3D DRAM的應用可能會特別有感。一方面目前長鑫的製程大概在1z節點,與領先公司有2、3代的差距。開始採用3D DRAM製程,可以快速拉進距離,畢竟那是一個新戰場。最重要的是3D製程中,技術的重心將從光刻搬移至蝕刻,這是長鑫在EUV資源受制約的狀況下,最可能的突破口。所以各公司3D DRAM製程的實際發展狀況和開發能力外界也許看不清楚,但是長鑫比較有可能投入較多資源是合理的預期。
DRAM 製程發展方向:DRAM結構在製程微縮中的挑戰
DRAM在1970年問世,取代以前的磁芯(magnetic core)記憶體,成為計算機馮諾伊曼架構中的一個重要模組。在1984~1985年之間,因為個人電腦及工作站的興起,DRAM變成半導體市場中市佔最大的單一產品。 因為DRAM製程的進展直接決定記憶體容量,以及DRAM有較大的市佔,有能力累積足夠的資金以投入下世代的製程研發,DRAM自問世以後就成為摩爾定律主要技術推手(technology driver)。肇因如此,自1980年代後陸續投入半導體產業的日本,以及其後的南韓、台灣,許多公司都選擇投入DRAM此一次產業,因為這代表投入半導體產業中最先進的製程。 但是DRAM的製程領先地位在2000年初不久之後首先被NAND超越,之後邏輯製程又超越NAND,成為半導體製程技術的驅動者。 DRAM開始偏離摩爾定律並不是之前促使DRAM成為技術驅動者的因素消失了。事實上,到2024年為止,記憶體仍穩佔半導體市場的4分之1左右,而是DRAM的基本結構在20奈米以下遇到尖鋭的挑戰。 DRAM的記憶體單元(unit cell)結構為1T1C,亦即一個讀取電晶體(access transistor)和一個電容。選電容當成訊息儲存單元天經地義-電容是電路三元件電阻、電感、電容中的一員。 電容上電荷的有、無代表訊息的「1」和「0」,需要讀、寫電容上的訊息時,就開啟讀寫電晶體。基礎物理教育告訴我們電容上的電荷,即使維持電容兩邊平行電板(parallel plate)的電壓差不變,電荷也會隨著時間逐漸流失。電荷流失的速度與兩片平行電板之間的距離成反比,與平行電板的面積以及在平行電板之間物質的介電常數(dielectric constant)成正比。因為電容上的電荷會隨時間流失,所以電容上的資訊必須經常更新(refresh),目前DRAM中的資訊刷新時間為64ms。 為了要控制個別的記憶單元,每一個單元的電晶體的閘極(gate)連有字線(word line),施加電壓後可以讓電晶體處於開啟狀態,可以用來執行讀、寫或更新的操作;位元線(bit line)則連接電晶體的汲極(drain),將自電容通過已開啟電晶體的電荷送到感測放大器(sense amplifier)偵測0或1的訊號。如棋盤線交錯的字線和位元線可以準確定位一記憶體單元,讓周邊線路挑選以讀寫其中訊息。以上就是DRAM運作的大概架構。 DRAM製程持續推進的挑戰,也正源自於這1T1C的架構。製程微縮的方向,與DRAM使用的電晶體以及電容所需的物理特性是朝反方向走! 首先遇到的是電容值的問題,2000年左右的電容值必須保持在40fF(femto Farad)左右,那時的電容已開始利用晶片上的垂直方向此一維度,電容要嘛挖成深溝(trench)狀,放在電晶體旁的下方;要嘛堆壘成圓柱狀(cylinder or pillar),置於電晶體上方,也就是利用垂直於晶片的方向面積的延伸來增加電容的面積。 但是製程的微縮會讓圓柱的底部縮小,電容的面積因而減少,電容值也會隨之降低,所以必須增加電容的高度,以增加電容的面積,藉以維持電容值在一定的數值以上。以10奈米級別製程為例,電容值必須維持在10~20fF以上。 但是減少圓柱底部面積、增加圓柱高度,就是增加圓柱的寬高比(aspect ratio),這會造成蝕刻製程的難度,圓柱底部較尖銳的形狀也會造成新的電性問題,所以寬高比就停留在1:50,難以再推進。 至於電晶體,記憶體的與邏輯線路的注重不同的特性。邏輯電晶體注重效能(performance),也注重漏電流(leakage current)及其它特性;DRAM電晶體首重漏電流,因為這對電容保存訊息的能力是致命。 電晶體存在漏電流的原因之一是柵極感應汲極洩漏(Gate Induced Drain Leakage;GIDL),指的是在柵極的位勢(potential)高於汲極的位勢時,即使電晶體處於關的狀態,電流仍然會從汲極洩漏流向襯底(substrate)。 這個問題是歷年來DRAM製程推進都要面對的問題,而且愈來愈嚴苛。 DRAM近年應對這個問題的措施包含在電晶體結構的變更,包括凹槽式通道陣列電晶體(Recess Channel Array Transistor;RCAT)、鞍鰭電晶體(saddle-fin transistor)、具有閘極工作功能控制(gate work function control)的埋柵(buried gate)電晶體等結構。 但是製程微縮也是朝不利於漏電流控制的方向移動。由於電晶體通道變短,於其上的閘極對於通道上的電流操控能力變弱,這就是短通道效應(short channel effect)。漏電流的降低也高度挑戰製程研發。
鑑往知來:packet(網際網路)vs. token(大語言模型)
從資訊技術演進的歷程來看,過去數十年來網際網路(Internet)的核心傳輸單位—封包(packet),與現今AI時代的大型語言模型(LLM)生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們可以摸著石頭過河,描繪出token相關技術的潛在演進軌跡,並預判其在產品形態、服務模式與產業價值鏈上的可能樣貌。何謂封包(packet)?封包是網際網路資料傳輸的最小「訊息單位」。所有透過網路傳輸的訊息(不管是信件、語音、甚至影片串流)都被拆解為多個封包,每個封包內含傳輸資訊等重要資訊,確保資料在龐大複雜的網際網路中,正確無誤地抵達目的地。過去數十年,網路基礎設施的投資便是圍繞封包品質的確保(如錯誤重傳機制)、提升傳輸效率(如頻寬升級、資料壓縮),以及整體系統吞吐量(throughput)的擴展而展開。正是如此,過去三十年來,我們才有日益豐富的網路服務,如訊息溝通、電子商務、社群媒體、影音娛樂等。而在LLM中,token則成為關鍵「智能單位」。語言模型在處理自然語言時,將一段文字訊息拆解成多個token,每個token代表不同的語意片段,經由模型運算後再組合(生成)為有意義的內容。與封包相似,token的數量和生成效率直接影響運算成本以及使用者體驗。例如,過去3年AI運算基礎建設投資的大幅增長,就是為了確保LLM模型的能力(token品質)以及服務品質(token生成效率),甚至近期邊緣裝置上token處理能力的提升,也正逐漸顛覆AI應用的場域邊界,向更多元、即時且全新的場域擴張。單看過去三十幾年網際網路packet的發展,我們發現token也在走類似的進程。不管是基礎建設,或是3個技術優化方向,包括「品質保障」、「效率提升」,以及整體「系統吞吐量的擴展」。品質保障:網路早期透過TCP/IP協定來確保封包傳輸的正確性,而LLM則透過scaling law加大模型、使用更多訓練資料,甚至後來以思維鏈(Chain-of-Thought;CoT)為基礎的推理技術,確保生成的token內容正確且提供高品質推理服務。效率提升:隨著頻寬提升和資料壓縮等技術的成熟,封包傳輸成本大幅降低;同樣地,token處理成本亦透過模型蒸餾(distillation)、量化(quantization,使用較少位元表示數值)、KV Cache等張量(tensor)降維壓縮,或是使用更有效率的架構(如MoE)來降低運算量,甚至有機會使大模型有效地運行於終端裝置。系統吞吐量擴展:過去網際網路透過光纖技術和提升邊緣設備(交換器、路由器等)大幅提升資料傳輸量,或是使用內容傳遞網路(CDN)等技術提高封包全局效益;在LLM領域,資料中心的垂直擴充(scale-up,提高算力、記憶體等提昇單一伺服器效能)與水平擴充(scale-out,高速網路連結、排程提升分散式系統效能)、或是採用雲端—邊緣混合架構(Cloud-Edge-Hybrid)等,實現整體系統更高的token處理吞吐量,滿足未來多元且即時的應用需求。循著過去網際網路發展的主軸,我們可以預見AI技術即將引爆的下一波變革—智能「去中心化」(普及化),低成本token開始在終端設備上運行。情境將如同2007年行動網路興起之際,packet進入行動裝置,催生智慧型手機,也推動Uber、LINE等全新服務的誕生,引爆長達十數年的行動生態系蓬勃發展。網際網路數十年來最佳化packet傳輸技術,帶動網路服務的快速普及,特別在行動網路時代,我們見證大量新應用與商業模式的誕生。這段歷程也為觀察生成式AI提供重要參照—當前token的品質提升與單位成本下降,正如當年packet優化所引發的技術擴張與資本投入,預示著新一波智能設備與創新應用的興起。隨著token處理成本持續降低,AI有望成為如網路般的關鍵基礎設施,深刻重塑產業結構。近來多個開放LLM模型在效能與成本上的突破,更強化LLM商品化與大規模應用的趨勢。未來如何因應?過去的歷史已經顯明,在技術變革時,應以開放的態度,極力接近實際場域,理解技術應用發展方向,甚至與合作夥伴共同設計開發,參與組建生態系。更積極的作法,是投資(國際)學研單位,甚至新創團隊,理解新的場域應用,以及技術演進。鑑往知來,回顧packet的發展經驗(許多企業經營層也曾親歷其境),將使我們更有效地掌握token所帶來的顛覆性機遇。對資訊電子產業的投資者與決策者而言,更是攸關未來競爭優勢的關鍵課題。每一次產業典範的轉移,總會帶來新的硬體、服務、企業、生態系,甚至整個產業格局的興起與殞落。當我們已清楚AI大模型即將重塑未來十年的產業樣貌,或許網際(行動)網路曾走過的歷程,正可作為產業AI戰略規劃的重要借鏡。
川普風暴與科技業的諸多挑戰(14):留下一線生機
留一個伏筆,掌握最後的生命線。意思是你如果不夠強大,像是烏克蘭人一樣,手上沒有一張像樣的牌,那你就等著任人宰割了!台積電董事長魏哲家說,蓋一個廠大約需要2.5年,而且這是在水電、土地不缺的情況下。要蓋3奈米的工廠,一次三條線,如果能調整到符合客戶需求大概要5年。例如硫酸等化學材料,在美國購買的話是5倍的價錢,從台灣運到洛杉磯,再用卡車送到鳳凰城,這樣還便宜很多,如果您是企業家會如何算計呢?當年在亞利桑那州幫英特爾(Intel)蓋廠的那一批人,早就不知去向了,工人、施工機構都要從亞利桑那州以外找,再碰到每個州的立法條件不同,光是1.8萬條的法規修正就花了3,500萬美元,可以想見在台灣以外的地方設廠,難度比大家想像的更高。這一路相隨的是帆宣、益登等這些台灣設備公司,帆宣董事長高新明說,我們早就等在亞利桑那州了,台積電要什麼都全力配合。對比美國高高在上的要台積電去美國投資,日本卻是戒慎恐懼的深怕台積電不高興,台日之間的互動,從以往日本人俯視的角度,換成平起平坐。但日本廠有更大勝算的關鍵,是日本的產業文化與本土產業需求。過去台積電確實也可以從日本拿到不少訂單,但以後就近供應,而且Sony、電裝(Denso)那些參與投資的日本公司都是長期經營的業者,兩者合作是台日雙贏。在台積電決定再加碼投資1,000億美元時,川普(Donald Trump)改口說:「算他們厲害」。但不是台積電厲害,而是台灣無論在地緣政治或科技產業發展的路徑上正處於要衝,這種「要害」地位才是讓台灣不可或缺的關鍵。川普不是因為愛台灣而鬆手,是因為搞不定台灣才放手的。那什麼樣的情況川普會鬆手、放手呢,如果台灣「認慫」,或者不知死活,那麼美中都會把台灣當棄子打!MAGA現在是全世界的人共同的理解,但我們都知道川普理解的「美國再度偉大」,背後是美國優先、美國唯一。我常說,美國是以科技為利器,以金融、軍事為後盾,不斷的建構新的遊戲規則掌握全球的霸權國家。金融的利器中,最關鍵的顯然是美元與關稅。台積電戒慎恐懼,但台灣並沒有準備好中央研究院院士莊炳湟問,工廠搬到美國是美國暗示「台灣必將回歸」的訊息嗎?台灣朝野在面對台積電宣示在美國投資1,000億美元時,各自表態的內容差距很大,甚至有些離題。國民黨說「淘空台灣」,民進黨反擊說當年馬政府贊成西進是「布局」,今天台積電到美國卻成了「淘空」,兩黨完全沒有共識,也沒有論述的能力。那麼賴總統問張忠謀的時候,張忠謀應該怎麼回答呢?問的對象、能力、經驗不同,善於回答問題的人經常可以因材施教,所以我想知道賴總統是否問對問題,甚至問對問題的可能性有多高?如果平常不曾參與科技業的問答,就如同曾國藩說的:「未聞平日不能早起,而臨陣忽能早起者」。我也常說,在網路時代,加上有了人工智慧這個工具之後,所有的問題都有答案,但關鍵是您問對了問題沒有?如果總統問錯問題,那是誰的錯?當然是幕僚的錯。總統並非無所不知,甚至我們本該就不要期待總統無所不知,總統基於國家戰略上的需要,以及自己的道德高度向社會賢達請益是天經地義,而幕僚做好規劃乃是常態。但關鍵是賴總統的科技戰略幕僚是誰?或者有哪個高瞻遠矚的智庫專家已經做好準備,為總統府準備了十套、八套劇本。不久前,與一家超過200億美元的大公司CEO談起多變的時代,企業應該如何因應時。這位CEO說,雖然他反對,但他幕僚告訴他,應該花一筆錢找頂級的顧問公司做幕僚。台積電到美國投資明明有動搖國本的疑慮,政府的方法還是找幾個人「盍各言爾志」,那麼這到底是誰的問題?台灣明明已經是個年均3.5萬美元的中高所得國家,2024年超收稅金5,200億元,但國家戰略還在土法煉鋼,明顯有人失職,或者根本是「掉以輕心」。賴總統求教於張忠謀、魏哲家,這是禮賢下士,還是禮失求諸野,甚至是束手無策的不得已之舉?如果我們知道2024年台灣中央政府歲出總預算是新台幣2.88兆元,以32:1美元計算的話,正好是900億美元,那麼動輒投資1,000億美元的台積電,以及一年資本支出總額高達400億美元的台積電,用「富可敵國」來形容,才是貼切的說法。
智慧應用 影音