台灣電子製造服務業養成記:PC、手機、AI伺服器以及與半導體的深度結合
PC的問世提供台灣製造服務進一步演化的機遇。 1974年微儀遙測系統公司(Micro Instrumentation and Telemetry System;MITS)發表Altair8800,之後還有初期的蘋果(Apple)電腦。但是IBM PC於1981年問世後才讓PC大量進入市場。 台灣在1984年才開始承接PC的製造服務,此時台灣卻已非昔日吳下阿蒙。首先,第一家提供PC製造服務的宏碁已有自有產品「小教授」,雖然是比較適合於特定用途如訓練與教育等領域專用機種,但是已有自己設計的能力,可以同時承接原始設備製造(Original Equipment Manufacture;OEM)以及更進階的原始設計製造(Original Design Manufacture;ODM)等2種服務。到了1988年,台灣已經成為僅次於美國的PC出口國;到了2000年初,全世界有80%的PC出於台灣。 這段經歷對台灣有2個重要意義。一個是對於台灣剛起步的半導體產業提供了初試啼聲的近端市場。晶片供應商包括威盛、矽統、揚智、鈺創、華邦、聯電、台積電等,這些晶片供應或製造商在80年代末、90年代初陸續的加入電腦零件供應商的行列。以中國的術語來說叫做國產替代,而且零件能自己供應的比例愈來愈高,可以製造的電子系統種類也愈來愈廣。 對於半導體產業,這是成長的沃土;對於電子製造服務業,這是加長供應鏈的戰略縱深。 90年代中期台灣幾家電子製造服務公司開始研發行動通訊,97年起開始2G GSM手機的OEM/ODM業務,業務模式一如之前PC的電子製造服務。 從智慧型手機世代起,電子製造服務產業將部分產能移至中國,持續擴大其製造產能。 2000年代中期,台灣開始伺服器的EMS/ODM業務。到了2018年,所有主要電子製造服務公司已經能製造完整的伺服器以及邊緣計算(edge computing)設備。 2022年末,台灣開始邁入人工智慧伺服器的製造服務領域。到2024年,台灣生產的人工智慧伺服器佔全世界93%。除了原先PC、智慧型手機已然的製造服務優勢持續奏效外,另外在半導體累積的經驗,包括尖端晶片製造以及先進封裝加持下的多重優勢價值鏈,這囊括的市佔率似乎是理所當然。 這個電子製造服務的生態系似乎還有持續擴大的機會。在先進計算方面,人工智慧的下一步目前近乎可及的題目是量子計算。包括IBM和PsiQuantum等使用不同類別量子位元的公司相繼宣布通用容錯(universal fault tolerant)、可以應用於解決實際問題的量子計算機將於2029年進入商業量產階段。 台灣對於量子計算的研發相較於國際領先群本來就啟動時間較晚,而且投入的資源相對不足。IBM不久之前才宣布未來5年內在美國要投資1,500億美元於量子計算的發展;如果包括製造在內,5年內總計3,000億美元。與此相較,台灣對於量子計算技術的投入太遲又太少。 但是如果不是想賺取「先進研發利得」(advanced research gain)的話,台灣仍然可以用電子製造服務來參與新興領域,分取紅利。 目前NVIDIA先進計算架構已經將量子計算整合入既存的人工智慧伺服器架構,規劃CUDA-Q。台灣的電子製造服業在近年來已經開始啟動量子計算的研發,雖然能量不足以挑戰世界已先行多年的發展領先群,但是藉目前已開展的人工智慧伺服器的巨大翻展動量,以後發的研發來瞭解新科技,加入下一階段的發展,這個策略還是有機會延續台灣電子製造業的優勢。
台灣電子製造服務業養成記:從黑白電視組裝開始
最近關於台灣半導體發展史的影片《造山者:世紀的賭注》(A chip odyssey)中提及美國無線電公司(Radio Corporation of America;RCA)授權、移轉半導體技術給台灣,啟動台灣半世紀的半導體旅程。 其實RCA對台灣的科技發展有另外更早、影響可能更深遠的貢獻。1966年RCA在台灣設立黑白電視組裝(assembly)的生產線。 黑白電視在30年代已有樣品、40年代已經商業化量產。1954年RCA也開始商業化量產彩色電視,並且70年代以後在美國、日本、西歐等發達地區彩色電視變成主流。但是黑白電視在發展中國家市場仍然是主要的消費性電子產品。RCA將黑白電視的組裝工作遷移至台灣是最佳化低毛利事業部門,一個典型的美國公司的標準操作。 黑白電視遷台組裝這件事有幾個重要意義。第一個是移轉台灣現代化生產線以及公司的管理,這個效果毋庸贅述。 第二個是技術移轉。當時黑白電視已經算不得尖端科技,因為彩色電視的普及在即。如果組裝可以成功地在地運行,將零組件的製造也一起遷移是個明智的選擇。這些技術包括陰極射線管(Cathode Rate Tube;CRT)、類比線路(analog circuit)設計、焊接(soldering)、表面粘著技術(Surface Mount Technology;SMT)等。這此技術很多是後來電子設備製造的共同基礎。 第三個是產生規模經濟。RCA於60年代後期於台灣開始組裝黑白電視,台灣本地的公司如大同、聲寶、歌林等也開始代工組裝或製造自有品牌的業務,後續還有更多的台灣公司以及歐美公司投入相同的領域。在高峰時期,台灣出口的黑白電視佔全世界市場的60~70%。之後的彩色電視業務,雖然各國將之視為較先進的消費性電子產品而有較高的自製意願,但鑑於已趨成熟的台灣組裝能力,台灣的彩色電視出口仍然佔全世界市場的30%左右。 由於有了規模,與其系統相關的生態就有開始衍生的機會,譬如日本公司投資的零組件,台灣本地生產的被動元件電阻、電容等。有一個很顯著的例子:鴻海成立於1973年,最先期的產品就是黑白電視的旋鈕(knob)以及塑膠零組件,這就是黑白電視組裝業務帶來的台灣電子產業生態系發展機遇。鴻海不是孤例,近兩年很多電子業相關公司都在慶祝50週年慶,遙想當年電子業生態系統是如何像地衣般全面鋪展開來的。 RCA黑白電視組裝廠設在1966年剛設立的高雄前鎮加工出口區(Export Process Zone;EPZ),之後有如增你智(Zenith)與摩托羅拉(Motorola)等公司的加入。加工出口區的設立當初是為解決台灣貿易逆差問題的手段之一。 1966年台灣的貿易逆差為約8,400萬美元,這個數目看起來似乎不大,但是在當年佔台灣32億美元GDP的2.6%。現在美國對全世界加徵10%的關稅,其主要目的也不過是要解決其佔GDP 3%的貿易逆差問題。 加工出口區的設立對於電子製造服務業(Electronics manufacturing Service;EMS)的開展有決定性的影響。除了在關務、稅收政策等方面形成肥沃的生態土壤,在全球運籌(logistics)方面提供必要支援,使得規模經濟得以持續擴張。這是台灣電子製造服務業發展的起點。
院長說院史(2):台灣第一座國立資訊學院
2007年初,交通大學校長換屆,資訊學院院長林進燈轉任教務長。新任校長吳重雨指示我接任院長,同年2月正式上任。任內我推動3項核心改革:首先,建立原資工與資科教授的共治機制,加速兩系融合;其次,創立聯席會議制度,將傳統三級三審的會議流程簡化為二級,大幅提升行政效率;第三,確立「應用型研究」為學院定位,並與電子資訊中心攜手推動大型產學合作,為學術與產業接軌奠定基礎。我始終強調「可執行性」的管理哲學:決策必須具體明確、務實可行。為消弭系所合併後的本位主義,我邀請前資科系主任簡榮宏出任副院長,曾煜棋為資工系主任,同時賦予各研究所所長副系主任職權,建立責任分明的治理架構。人事安排考量專業能力,同時兼顧系所平衡與長遠發展。在評鑑機制方面,我們選擇不參與IEET認證,僅採教育部評鑑為基準。作為當年全台唯一未參與IEET的工程學院,這項決策避免教研團隊陷入形式化文書作業。我堅信:「教授應將精力投入教學與研究,而非應付評鑑文書。」此理念獲得同仁廣泛認同。學院定位承襲貝爾系統(Bell System)應用型研究精神,強調技術落地與產業價值。當時台灣應用研究多集中在「發展」端,而美國「研用融合」的模式更具啟發性。為此,我邀請工研院資通所所長林寶樹擔任學院的講座教授,其於2009年接掌交大電資中心後,我們共同實踐「電資中心與資訊學院互為延伸」的願景:重大計畫由電資中心統籌、學院教授參與;一般計畫則由教授獨立執行,形成雙向研發循環。在產學合作方面,我主導成立中華電信在交大設立研究中心,並於日後擔任副校長時,將此經驗推廣至全校,創建校級研究中心制度。第一個校級中心是與聯發科共建的平台,接下來則有台積電、廣達、研華、華邦等指標企業相繼進駐。這些中心設有專屬行政窗口,簡化統整智財管理與財務稽核流程,使企業能視研究中心為其研發部門的延伸。同時,我們首創「研究生工作年資認定」制度,強化企業留才誘因,實現產學研三贏。進入AI時代,我認為資訊學院應與台南校區的AI學院深化整合:前者鞏固資通訊核心技術,後者注入AI研究能量。企業如今已從「工具應用」轉向「流程革新」的AI思維。2024年,華邦電子研究中心選擇落腳本院,正是看中AI驅動IC設計的跨界潛力。展望未來,資訊教育須超越技術傳授,著重培養2項AI難以取代的核心能力:批判性思維與原創性。唯有如此,學子方能在智慧浪潮中彰顯人類智慧的真諦,這正是我對學院發展的最終期許。
院長說院史(1):台灣第一座國立資訊學院
交大友聲雜誌《院長說院史》專訪歷任資訊學院院長。身為2007至2011年間任職的院長,我接受藍麗霞女士訪問,回顧從學院草創至系所整合的關鍵歷程。「故事要從2004年前說起。」我循著時間軸展開敘述。早在1997年擔任資訊工程學系主任時,我便注意到一項結構性矛盾:交大原有資訊工程系(資工)隸屬工學院,資訊科學系(資科)則隸屬理學院。自1994年併入新設的電機學院後,兩系在定位與角色上日漸模糊,不僅反映軟硬體學科間的不當分野,更直接影響招生策略與發展方向。儘管當時已有合併構想,但「電機學院下設大型資訊系」的框架引發疑慮,計畫始終未能實現。為尋求突破,1999年卸任系主任後,我專程拜訪華盛頓大學指導教授Ed Lazowska。該校資訊系的跨域發展模式印證我的想法:「資訊學科不該被動地附屬於電機體系,而應主動建構多元的研究範式。」Prof. Lazowska 更提出資料科學的運作,如何將學院算力放置雲端。這些前瞻見解在當年的台灣是聞所未聞,更進一步重塑我的思維。從2000到2004年,我一直宣揚一所獨立資訊學院的想法。在當時交通大學電機電子主導工程學科的架構下,推動資訊學院獨立無異於挑戰傳統體制。所幸在張俊彥校長與蔡文祥教務長的支持下,學院籌備工作正式啟動,由蔡教務長領銜規劃。受Prof. Lazowska啟發,我建議「一系多所」的創新架構:大學部整合為單一學系,研究所則依應用領域分設。這項打破常規的提案遭質疑,因為資工與資科兩系都怕被對方併吞,淪為二等公民。最終在蔡教務長的關鍵協調下完成合併。2005年8月,交大成立全台首座國立大學資訊學院,原資訊工程系與資訊科學系合併為核心單位「資訊工程學系」。回望當年,「一院一系多所」的設計不僅健全學院體質,也開啟跨領域合作的新路徑。學院成立後,我選擇退居幕後,未參與首任院長遴選。
台灣量子電腦的發展策略
當IBM Condor的量子位元數已經高達1,121個、Atom Computing Phoenix的量子位元數也已達1,180個,台灣的量子計算研發2024年才剛剛跨出5個量子位元的原型(prototype)量子計算機的第一步。 量子計算的量產也許不會在立即的未來發生,但是也不會太遠,至少目前各方矚目的PsiQuantum預計在2027年年底開始量商用的機型,並且在2029年達到全尺寸容錯(fault-tolerant)系統。 量子計算的商業應用有很大的機率如同人工智慧般產生巨大經濟價值而重新分配財富,而新財富的分配通常只限於創造經濟價值的參與者。以目前在量子技術核心量子位元(qubit)及量子閘(quantum gate)還遠遠落後前沿科技的開發進度,台灣在未來的量子世代還有機會在科技新世代分到相應貢獻的經濟價值嗎?答案是有可能的,而且已經悄然發生中。 看現在的人工智慧伺服器(AI server)便可以明白台灣會以怎樣的策略切入這明日之星的新產業。 其實台灣的產業幾乎沒做過基礎科研,除了台灣基礎科研的整體體量較小外,對於公司資源的配置,也有基於公司經濟尺寸的現實考量。 要在新領域獨占鰲頭,要做長時間、領域廣泛的研發投入,後者基本上是保險策略。極致的例子是IBM以前Watson Lab的風格,機構可以供養科學家以及研究經費做與公司業務沒有直接關係的基礎科研,甚至因為這些工作而獲得諾貝爾獎! 台灣的公司絕大部分是中小型公司。即便像台積電在台灣排市值排名第一的公司,在本世紀之前也未能進入全世界前100大之列。因此對技術硏發的策略長期偏向於做短、中期的技術發展(development),題目的選擇與短期內訂單的可見度有明顯的相關。採用這樣策略的風險較低,資金的利用效率較高。以產業內較直白的話來說,就是不見兔子不撒鷹。 不從先期的基礎科硏下手、取得先行者的有利位置,卻冀望取得產業帶來的利益分配,靠的是什麼?答案是供應鏈。 一台量子電腦會大致有下列模組:量子處理單元(QPU;Quantum Processing Unit)、控制和讀取電子設備(control and readout electronics)、同相/正交混頻器(IQ mixer;In-phase/Quadrature mixer)和FPGA 板、低溫系統(cryogenic system)和真空系統、經典處理(classical processing)及回饋系統、軟體堆疊(software stack)、校準和診斷工具(calibration and diagnostic tools)等。這些模組各負責一些功能,譬如經典處理及反回饋統統中就包含經典伺服器及糾錯控制器(error correction controller)。 以IBM最近1,121位元的Condor這款發展過程中的原型機為例,零組件的數目大約在11,000~16,000個之間,供應鏈的公司數在150~200個之間,但這數目只適用現階段的原型機。如果是商用的機型,零組件數輕易會上數十萬,因為有些零組件會隨位元元數線性成長的。 對照於NVIDIA DGX GB200 NVL72的AI伺服器,其中也有10個出頭的模組,合計有大約100,000~200,000個零組件。雖然其中主要的GPU不是台灣設計的,但是晶片製造之後全在台灣。台灣AI伺服器的出口,2024年佔全世界93%,這是台灣在此領域150~200家供應鏈力量的展示,而這力量是沿承自90年代的PC/NB供應鏈。記得90年代PC/NB產業的口號嗎?除了CPU,我們什麼都有。供應鏈不是可以一蹴而就的,因此也很難突然被取代。 未來的先進計算,如果含量子計算,很大機率是包含AI伺服器的混合伺服器(hybrid server),而且現在的量子計算機就已經包含伺服器。 所以台灣合理、合時宜的量子計算發展策略就是依著沿PC、AI伺服器的供應鏈思路,以供應鏈的方式參與新產業的興起。 台灣的幾家電子製造服務公司(EMS)都已經開始踏入這個領域。有的從0開始,建立量子位元研發團隊;有的投資量子新創,同時建立公司內的量子團隊。如果沒法在最關鍵的研發領域領先,至少先暖身一下。畢竟量子不像傳統的電子產業,觀念上需要跳躍性的前進。 這樣做有異於不見兔子不撒鷹的傳統原則嗎?並沒有。產業鏈龍頭企業NVIDIA已經提出CUDA-Q的架構,也有報導在評估投資量子計算新創公司的打算。兔子已經在視線之內了,正是撒鷹時機。
軍事通訊—說碼人加密
軍事通訊技不斷精進,操作通訊系統的兵種就愈分愈細,最早只要一個旗兵。進入電子戰後,通訊兵的分工還挺細的。例如話務通訊兵負責發送訊號,而譯電通訊兵負責接收訊號。在體制上雖然是不同功能,但作戰時,可沒有那麼講究排場,話務和電譯就由同一位通訊兵包辦。這個兵種往往腦力操勞,要背誦一堆編碼,防止通訊的內容被竊聽。如何想出讓敵人無法破解的密碼,更是兵家必爭。第二次大戰時,德國使用Enigma加密機,配備於U-boat潛艇,行跡飄忽不定,在大西洋擊沉大量盟軍船隻,急得英國首相邱吉爾(Winston Churchill )直跳腳。今日以自然語言AI技術模擬通訊者的生物特徵及說話特性,成為加密的金鑰,產生AI說碼人系統的發展是一個令人感興趣的領域。模擬通訊者的客製化特性,成為加密的金鑰,軍隊早已採用,是所謂的「說碼人」(Code Talkers)加密。說碼人其實是話務/譯電通訊兵,不同之處是他們像中國以前祕密幫派,會中兄弟談機密時,就說起「幫派切口」,旁人聽不懂。甲午戰爭時清朝曾以溫州話加密;第一次世界大戰時,美國採用巧克陶族(Choctaw)的印第安語傳送機密軍事訊息,成功地攻擊德軍。德、日兩國學到教訓,在第一次大戰後送一堆學生到美國學印第安語如Cherokee、Choctaw,和Comanche。美國軍方發現此一現象後,擔心德、日兩國有能力解碼,曾經考慮放棄「說碼人」制度。此時一位工程師,也是第一次世界大戰的退役軍人江士頓(Philip Johnston)建議以鮮為人知的納瓦荷語言來編碼。江士頓從小生長在納瓦荷印第安保留區,和納瓦荷族人交往,熟悉納瓦荷語言及習俗。納瓦荷的語言結構複雜,較以前的印第安語言更適合用於加密。經過江士頓展示後,美國海軍陸戰隊決定採用這個提案,立即徵召僱用29名納瓦荷族原住民,由他們開始編碼工作,總共使用411個字彙。海軍陸戰隊在第一層編碼上再以字詞取代(Word Substitution),做第二層的加密,例如「Gini」這個納瓦荷字翻成英文是「Chicken Hawk」,而真正的軍事用語是「俯衝轟炸機」(Dive Bomber)。第二次大戰期間美國總共動用400位納瓦荷族的說碼人,這個密碼一直到大戰結束,都未曾被破解。很諷刺的是,1861年時,美國白人將最早的旗語通訊用於和納瓦荷族的作戰,而在第二次大戰期間卻靠納瓦荷族來協助美軍進行作戰通訊,編入美國海軍陸戰隊。2002年電影《獵風行動》敘述1944年,美軍在太平洋塞班島戰場上,納瓦荷族說碼人的故事。這部電影點出很基本的人性問題。軍方必須全力保護「加解密機」,可是當說碼人這個「人肉加解密機」有落入敵人手中的疑慮時,必須先行毀滅。奉命執行毀滅任務的同袍如何下得了手?這個矛盾成為電影詮釋的重點。當前科技發展已經實現加密的自動化和數據化,不再需要人工的介入。然而,利用自然語言人工智慧(AI)技術來模擬通訊者的生物特徵和說話特性,作為加密的金鑰,這是否能夠強化加密的效果呢?AI說碼人系統的發展是一個引人注目的領域。通過應用自然語言處理和機器學習技術,AI能夠模擬通訊者的生物特徵和說話風格,成為加密的關鍵。然而,要建立一個全面且安全的說碼人系統,需要深入瞭解特定語言、方言以及文化背景。此外,發展強大且安全的通訊系統還需要考慮超越僅透過文字互動可以實現的因素。目前,AI說碼人系統的發展仍需更多的研究和努力。
Edge AI產業來了嗎?
相較於目前大語言模型應用絕大部分在雲端伺服器上推論,Edge AI(邊緣AI)強調在裝置上獨立執行AI模型。這種架構差異在於:可大幅降低因網路傳輸造成的延遲,確保即時反應,即使在無網路離線下也能運作;資料不上傳雲端,確保資料私密與安全性。Edge AI有機會滿足許多新應用場域中對低延遲、高私密的關鍵要求。這半年來,透過技術突破、產業需求,以及發展軌跡,我們看到Edge AI的產業輪廓,正逐漸形成。模型演算法的高度競爭使得Edge端可用的AI模型愈來愈強大。近年來出現許多參數量在13B~70B級的精簡模型,透過知識蒸餾、量化壓縮、模型剪枝以及多專家混合(MoE)等技術,這些小模型在使用較少參數的同時還能大幅提升性能,縮小與大型模型的差距 。同時也配備了各種終端應用極度關鍵的推理(reasoning)能力,包括控制、決策、因果、規劃等。SoC與記憶體規格配置同樣是促成Edge AI崛起的要素。目前主流高階智慧型手機、NB的NPU(AI運算核心)已經接近100 TOPS,足夠讓這些終端模型每秒生成數十個token(語意單元),滿足應用場域(文字、語音對話)的生成品質要求。同時,透過低位元精度(如8或4位元)來表示模型權重,有助於大幅降低總位元數,使現有記憶體配置即可支援終端AI推論,釋放AI從雲端走向終端的巨大潛力。另一方面,各大廠商也在其晶片產品藍圖中,明確規劃未來的算力提升,進一步強化Edge AI可行性與效能。在初期應用情境中,智慧型手機成為Edge AI生態重要橋樑。手機不僅是首批受惠於AI能力提升的裝置,更自然作為雲端與各類在地智慧裝置之間的橋梁。透過手機,無線耳機、汽車、AR眼鏡等裝置都能與雲端和手機上的AI模型連動,實現多模態的Edge AI應用。例如,耳機可使用手機(AI模型)即時翻譯語音,車載系統可依靠手機輔助娛樂訊息,眼鏡則利用手機處理視覺、語音任務。智慧手機作為隨身超級終端,串聯各種周邊裝置,歷史軌跡也告訴我們,當網路封包(packet)的成本逐步下降,通訊功能便普及至各類終端設備。10年後(2017 年),行動產業達到高峰,無論是應用生態系或硬體供應鏈都蓬勃發展。同樣地,隨著token成本不斷下降,AI 能力延伸至新型態終端設備,觸發全新應用場景,也是值得期待。延伸報導專家講堂:鑑往知來:packet(網際網路)vs. token(大語言模型)垂直產業中也聽到應用面需求。過去手機SoC供應商的技術團隊,首要工作是優化品牌手機中相機應用的智慧功能,但從2024年開始,優化手機中LLM執行效率,成了品牌客戶的關鍵需求。工業場域中,也對於推理功能加速決策效益,工業機器人的執行效率多所期待。過去幾年,NAS在中小企業中大量採用,年複合成長率超過 15%,顯示這類用戶對資料管理與在地運算的高度需求。如今,這些用戶也期待能在終端設備上,享受到大型語言模型所帶來的自動化與知識管理功能。近來市場數據也顯示Edge AI正逐漸萌芽。在最新的季報中,蘋果(Apple)新款M4晶片強調AI效能,推動2025年第1季Mac營收年增15.5%,更值得注意的是,新晶片也在2024下半年吸引新用戶進入蘋果體系。高通(Qualcomm)因手機與車用AI需求激增,手機業務創新高,汽車業務更年增55%,公司也宣稱「Edge AI是未來業務成長主要推力」。NVIDIA的Orin車用AI平台單季營收年增103%,並與聯發科合作布局一系列全新終端SoC。晶片設計商與設備供應商正從Edge AI中實際獲利。也同時看到OpenAI 以約 65 億美元的全股票交易方式收購了由前蘋果首席設計長 Jony Ive 共同創立的 AI 硬體新創公司 io。這股趨勢Edge AI已從概念走向實質商業成長。儘管前景看好,Edge AI推廣仍面臨多重挑戰。首先是應用場域的擴展:用戶需求差異極大,不同行業與裝置對模型大小、功能要求各異,業者須在通用性與客製化間取得平衡,如何取得具泛化能力的精簡模型,解決場域問題,至關重要。其次是功耗與效能的權衡:終端裝置受限於電池與散熱條件,高複雜推理恐導致過熱與續航縮短,對晶片設計與電源管理設下更高要求。再者,生態系初期碎片化,硬體架構多、軟體缺乏統一標準,讓開發者必須針對各平台個別調適,增加成本與阻礙創新。這些挑戰若未克服,恐將削弱Edge AI的經濟性與可擴展性。不過,回顧行動產業的發展歷程,也為今日的Edge AI前瞻團隊提供寶貴借鏡。
鑑往知來:Apps(行動網路)vs. Agents(大語言模型)
在前一文中,我們類比網際網路(Internet)以及現今大型語言模型(LLM)的發展軌跡,特別是網際網路的核心傳輸單位—封包(packet),LLM生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們試著描繪出token驅動的AI未來發展軌跡,並預判在產品形態、服務模式與產業價值鏈上的可能樣貌。另一可供借鏡的歷程,是應用程式(App)在行動網路時代所引爆的創新與變革。如今,在LLM/LVM多模態大模型推動下,一個以「Agent」為核心的應用生態正逐步成形。延續上文,我們嘗試從App的崛起歷程,看見代理(Agent)以及邊緣AI(Edge AI)未來的可能路徑。2007年開始,行動App實現即時互動與高速資料交換,行動用戶大量增加,源自於網路封包傳輸成本逐步下降,智慧型手機的運算效能與續航力的進展。App Store的出現更將過去分散、複雜的網頁互動模式,整合為圖形化、易於操作的應用程式介面,大幅降低使用門檻,使數位服務真正「行動化」、「普及化」。App 不再只是單一功能工具,更透過推播、定位、社群整合等特性,深度嵌入使用者生活。這也帶動「長尾效應」—不僅少數爆紅應用,而是無數利基型App滿足多元、個人化的需求。這場從網頁到App的轉變,不只是介面革新,更興起全新App驅動的生態系,翻轉整個數位服務的生產與分配模式,也同時快速推升行動裝置的需求(2017年達到高峰)。App Store 建構出一套雙邊市場機制,一端連結開發者創新、另一端連結全球使用者,使原本無法規模化的服務得以商品化、在地化與全球化。過去嶄露頭角的數位服務如Uber、LINE、Instagram皆倚賴App生態興起,而App的爆發也帶動晶片、感測器、模組、電池、記憶體等硬體需求,重塑行動裝置供應鏈結構,並促成新興品牌與 ODM/OEM 的崛起。Statista統計顯示,全球App下載量自2010年的60億次,成長至2023年的1,430億次,反映出App模式背後強大的規模經濟與網路效應。台灣廠商在這波行動化浪潮中,從晶圓代工、封裝測試到系統整合與 App 開發皆深度參與,建立完整供應鏈與生態網路。這段歷程不僅重塑行動產業結構,也為即將興起的AI代理(AI Agent)模式提供寶貴借鏡——當使用者介面再次從App進化為Agent,我們是否能搶先洞察使用需求、運算架構、標準制定與硬體整合的關鍵優勢?如果App是行動網路時代的使用介面,那麼由大模型LLM/LVM驅動的Agent,可能是 AI 時代的核心入口。Agent不僅理解自然語言(及各種感測訊號),還得具備任務規劃與執行能力,從單純對話升級為數位助理。透過多模態推理與工具鏈結,Agent的應用場景正快速擴展至自動化工作流程、專業諮詢、教育訓練與知識輔助等領域。未來極可能出現類似「Agent Store」的新型生態系,就如當年App Store一樣,匯集多樣化、可重組的智慧模組,滿足多樣性需求。這將加速硬體與軟體的分工整合,促進各種垂直應用場域(如工業、醫療、中小企業、消費者市場)中智慧代理的落地機會。隨著近來高效率推理模型的快速演進,以及LLM開源生態的蓬勃發展,更進一步推進這樣的可能性。同時,終端市場的實際需求也正在浮現,如中小企業的知識管理、自動化應用,以及工控領域中即時推理能力的渴望,也回應了市場的需要。終端裝置的硬體規格,也逐漸具備支撐Agent所需的AI算力與記憶體條件。隨著LLM開源社群快速演進,如13B等級模型已能在一般行動裝置上順利推理,token生成速度亦逐步接近應用需要,Edge AI的落地門檻正快速降低。根據預測,Edge AI晶片市場將自2023年的24億美元,成長至2033年的252億美元,年複合成長率高達26.5%。各大系統與晶片業者也已積極布局AI手機、車用SoC與AI PC平台。未來,Agent將可自然地嵌入手機、筆電、AR眼鏡、TWS耳機、機器人等多元終端裝置,成為新一代語言互動與任務導向操作的使用介面。當然,Agent技術的普及仍面臨諸多挑戰,除了使用者資料的授權與使用,日益增強的自主性也帶來安全、隱私、監管與倫理等層面的高度關注,技術本身的複雜度亦不容小覷。然而巧合的是,這些挑戰與機會的交織,恰如2007年行動網路時代初啟時的情境—從應用模式、生態系到硬體需求與供應鏈架構,皆醞釀著重塑的可能。Agent的發展,正釋出一種熟悉而微妙的訊號,預告另一波產業典範轉移的起點。
一個人武林的美麗與哀愁:論台積電的先進製程與封裝
從年初的CES 2025,3月的NVIDIA GTC,到4月台積電在北美的技術論壇,以及即將登場的COMPUTEX,這幾場科技大秀,在在顯示AI伺服器的發展與半導體先進製程及封裝技術,有著不可分割的緊密關係。幾年前NVIDIA執行長黃仁勳在媒體上說過幾次「摩爾定律已死」。當時我不太理解其中的涵義,直到最近讀完Stephen Witt所著《黃仁勳傳》(The Thinking Machine: Jensen Huang, Nvidia, and the World’s Most Coveted Microchip),才了解到個中道理。書中談論到由2012年到2022年,GPU運算能力增加10,00倍,其中屬於硬體的電晶體速度(clock rate)只增加2.5倍,換言之剩餘的400倍來自軟體程式及數學公式。400倍相對於2.5倍,自然會說摩爾定律已死,更何況NVIDIA在黃仁勳眼中一直是家軟體的公司。但是事實真的如此嗎?如果以NVIDIA GPU從2012年的Kepler到2022年Hopper GPU,製程技術由28奈米演進到4奈米,電晶體數目由71億顆,一口氣增加到800億顆;運算的單元CUDA core也從不到3000個,擴充到將近15,000個核心。雖然電晶體的速度僅增加2.5倍,但是由於單一晶片的運算核心的數目增加了,算力自然就大幅的提升。如果再加上CoWoS及3DIC的先進封裝技術,不僅將多個記憶體晶片(HBM)垂直堆疊在一起,而CoWoS技術更將GPU與記憶體晶片,能緊密地在水平方向擺放在一起。這些先進的封裝工藝,最重要的就是希望數位訊號這這些晶片中傳輸,能夠走最短的路徑。這樣一來不僅訊號傳輸的延遲可以縮短,功耗亦可以降低,算力自然就提升了。Blackwell GPU已經利用CoWoS技術,將2個GPU晶片無縫接軌地綁在一塊,下一代Rubin GPU將會擴充到4個GPU晶片連接一起。台積電更提出在2027年實現SoW(system on wafer)。也就是在矽晶圓上或其他形式的基板上,水平放置更多的GPU,甚至開始做GPU的堆疊。這些先進製程及封裝上的努力,無非是把更多的運算單元,及暫存的記憶資料,在很小的空間內完成執行,以增強其運算效能。依據此原則,同樣的在伺服器機櫃的設計,也是希望在一個機櫃內放置更多的GPU。因此GB系列一個機櫃內有72顆GPU,到了下一代Rubin會有144顆GPU,而Rubin Ultra更在一個機櫃內放置多達576顆GPU。機櫃的設計也由原先水平擺放的tray盤,改為直立式的插槽,以增加GPU密度。這一切硬體上的努力,無非是要提升整體的運算效能,但也衍伸出電源的供應及如何散熱的問題。GB伺服器系列一個機櫃所需的功率在120~150KW,Rubin Ultra將會達到600 KW~1MW。若是一個數據中心擁有500個Rubin Ultra機櫃,那就約略等於一個核子反應爐所產出的電力。屆時Rubin Ultra的散熱,恐怕只有浸潤式的液冷一途了。台積電在4月的北美技術論壇,在先進封裝領域著墨甚多。除了SoW、矽光子、3DIC之外,更規劃在電源最後一級的轉換IVR(integrated voltage regulator),嵌入至CoWoS內的中介層(interposer)。所以在先進製程上,台積電已經是一個人的武林,不久的將來在先進封裝領域,台積電會是另一個一個人的武林。一個人的武林所衍生出來的就是,如影隨行的反托拉斯法(antitrust)。為了淡化台積電在先進製程的主宰地位,董事長魏哲家曾建議將先進封裝也納入半導體的範疇,藉由分母的擴大以降低百分比率。然而目前實際上的發展,恐未能如其所願。英特爾(Intel)之前為了解決CPU市場獨佔的問題,不僅付給超微(AMD)一筆和解金,並技巧地讓超微成為有實力的競爭者。先進封裝相較於先進製程,可以有較多的可行解決方案,群策群力,不必然是一個人的武林。美麗與哀愁,端視我們的態度與做法。
中國曝光機發展現況:EUV
中國工信部宣布DUV訊息的同時,上海微電子也發布其2023年申請的EUV專利、2024年9月專利申請公開的消息。延伸報導專家講堂:中國曝光機發展現況:DUV上海微電子的EUV使用的也是現在商業主流的二氧化碳(CO2)雷射,波長為10.6奈米。鍚的液滴(droplet)先用釹釔鋁石榴石雷射(Nd:YAG laser)打成圓盤狀後,再被CO2雷射離子化(ionized)變成鍚電漿(plasma),然後其外層電子向低能量態躍遷(transition),釋出波長約為13.5奈米的光子。之所以要用如此複雜的工序來產生EUV光源,是因為在此波長沒有自然的物質的能階差可以產生如此短的波長。選擇13.5奈米是因為波長再短一些,就變成X光(0.01奈米~10奈米)。EUV也很可能是矽基半導體技術的最後一種光源。矽的共價鍵(covalent bond)長度為0.543奈米,而要形成一個塊材,至少也要有10幾20個原子,否則介面的效應就會嚴重影響電子於其中的行徑。13.5奈米光的解析度以及應有的工程努力如加大數值孔徑等—最多再加上多重曝光—要處理這樣的臨界尺寸儘夠用了。所以上海微電子的專利的權利請求(patent claim)主要在光源之外的系統。至於原型機或量產機型的交付,沒有官方宣布或較正規新聞。2024年12月30日哈爾濱工業大學因「放電等離子體極紫外光刻光源」工作獲得中國黑龍江省的科技創新成果轉化大賽的一等獎。這獎只是地方獎項,能引起後續新聞報導自然是因為它牽涉到EUV的光源產生。它產生光源的方式與前述的以CO2雷射來離子化圓盤鍚滴粒,藉以產生13.5奈米光源的工作方式—雷射產生電漿(Laser-Produced Plasma;LPP)不同,它是施加高電壓藉以離子化鍚滴粒產生13.5奈米光源,此種方法稱放電產生電漿(Discharge-Produced Plasma;DPP)。報導中說它產生的線寬較窄(narrow linewidth)—也就是所有光的波長較集中於13.5奈米、功耗較低。二者說法都有誤導之嫌。LPP與DPP產生的EUV光都不是相干的(coherent)。如果硬要比較的話,LPP產生的光線寬較窄,但二者均可以經濾光器(filter)將線寬控制在可接受範圍內。而DPP的原始功耗較低,恰恰好成為當初與LPP競爭成為EUV光源候選人時未能雀屏中選的主要原因。在相同的能源轉換效率(energy conversion efficiency)條件下,光源較高的功率輸出代表較強的光亮度(light luminosity),可以用較短的時間完成曝光,提高曝光機吞吐量。DPP EUV能量的提升(scale up)較為困難,因此用來當量產機台的光源挑戰也更大。最後是在2025年3月在《中國激光》期刊上中國中科院上海光學精密機械研究所由林楠領導團隊所發表的〈1um激光激發固體Sn靶等離子體EUV幅射特性實驗研究〉。林楠曾服務於ASML光源團隊,對此題目的產業商業化考慮應該十分熟悉。文章中的1微米固態雷射(solid state laser)使用的就是前述用來將鍚滴粒打成盤狀的Nd:YAG雷射。固態雷射由於其體積較緊緻(compact)、電光轉換效率(electrical-to-optical conversion rate)較高(~20%),而且目前輸出功率已達千瓦級,未來可能可以提升至萬瓦級,有望取代CO2雷射,成為驅動EUV的主要雷射。文中指實驗的能量轉換效率已達3.42%,若用已商業化的1kW固態雷射,已可來做曝光驗證、光罩檢測(mask inspection)等工作,並且在一定條件下,進一步用於先進節點的臨界尺度以及疉加精度的量測。也就是說,這是一個未來EUV機台的研究起始點。產業此時的現實考慮是從CO2雷射波長10.6微米轉換成Nd:YAG雷射波長1微米對於光源次系統是一個全新的轉換,所有的工程工作必須重新來過,而且CO2雷射用於LPP EUV商業化已久,目前的成本遠低固態雷射的。所以這個工作更傾向於對未來可能發展方向的研究準備,對於目前的先進製程的突破,短期間內是使不上力的。近期的這些報導距離真正的工程實施都有相當的距離,進步也比較片面。一個EUV曝光機包括EUV光源、光學系統、真空系統、光罩版台及夾具(reticle stage and clamping)、晶圓台(wafer stage)、熱管理(thermal management)、計量和感測器(metrology and sensors)、控制電子設備(control electronics)以及軟體及韌體(firmware),大大小小的零組件計100,000個以上,其中很多零件是專為EUV機台量身定製的。建立此一龐大、複雜、精確的供應鏈隊伍的難度,可能更甚於對單一技術課題的突破,我認為這是中國在發展自有曝光機的最大挑戰。
智慧應用 影音