徐宏民
國立台灣大學資訊工程學系教授
現任國立台灣大學資訊工程學系教授,曾任富智捷(MobileDrive)技術長暨副總經理,推動ADAS及智慧座艙系統產品進入全球車用市場。紐約哥倫比亞大學電機博士,專精於機器學習、電腦視覺、自駕車、機器人等領域。為訊連科技研發團隊創始成員,慧景科技(thingnario)共同創辦人,NVIDIA AI Lab計畫主持人;曾任IBM華生研究中心客座研究員、美國微軟研究院客座研究員。習慣從學術及產業界的角度檢驗技術發展的機會,擔任多家科技公司AI策略顧問。
Energy + Intelligence:AI優化能源效率與韌性
Intelligence需要能源當作燃料供應,同樣的,AI技術的發展,也正提升能源的韌性以及效率。AI與能源互相為用:AI需要更可靠、更乾淨的電,能源系統也需要AI提供準確預測、快速維運,以及可信賴的控制。當我們開始納入「AI for Science」探索材料與化學新結構、能源探勘,以及地球天氣的基礎模型,更可以理解為何Energy+Intelligence為企業及國家貢獻的關鍵競爭力。AI不僅是能源消費大戶,也正在各個面向優化新能源應用,包括:(一)發電方式、來源的探勘、發電優化,(二)電網穩定,及(三)降低耗電及用電端優化。在發電與儲能端,AI正加速能源資源的探勘與新材質研發。透過地震波與電磁感應數據分析,AI可更精準偵測地熱資源;在海域與山谷,AI對潮汐與風速的長期預測,能幫助規劃最佳的風機與潮汐發電位置。材料科學領域也因AI for Science而出現突破,例如AlphaFold2在蛋白質結構預測的成功,有機會用來加速電池與太陽能板材料開發。過去太陽能發電每提升1%可能需耗時數年,AI有機會將開發週期縮短30~50%,並在固態電池、氫能儲能等新興領域找到更安全、更高能量密度的材料組合。AI正在成為解決再生能源「間歇性」問題的核心工具。風電、太陽能、潮汐等發電量深受天氣影響,輸出曲線常常在幾分鐘到幾小時內大幅波動,這意味著其他發電機組(如天然氣、煤、水力)必須即時補上缺口,或透過儲能設備平滑輸出。AI的價值在於提前預測這些變化,讓調度單位能在幾小時甚至幾天前準備好備援計畫,因為各個能源系統啟動的成本以及需要的預置時間不同,從幾秒到幾個小時。Google DeepMind與英國國家電網的合作案例顯示,透過AI預測風電輸出,準確度提升直接讓風能的經濟價值增加20%。同樣的,台灣也正使用AI系統預測未來4到72小時太陽光電的變化,提供電力調度依據。再生能源預測與地球的天氣系統變化息息相關。生成式AI的進展也推昇「地球系統基礎模型」的整合,例如最近《Nature》上發表的AURORA基礎模型,能同時處理空氣品質、海浪、颱風與天氣預測,比傳統數值分析快上數十倍,且能在不同地區與時間條件下預測,對於掌握再生能源間歇性的太陽光輻射、風速、潮汐等有很大的助益。同時,準確的天氣預測(大雨、溫度)也能掌握用電端的用量趨勢,協助智慧電網分區負載平衡、電池充放電優化,甚至辦公大樓與工廠的需量反應(減少電網用電)。當預測能力與調度能力打通,AI不只是再生能源的輔助工具,而是讓再生能源成為穩定、可規劃的資源。在維運端,AI的價值在於找回「可回復損失」,並縮短從偵測到修復的時間。以太陽光電為例,電站層級的停機、組串層級的汙損與遮蔭、電氣層級的接觸不良與誤停,都會造成可觀的損失。資料驅動的診斷可以在至小時級偵測到異常型態,配合工作單與現場流程,將修復時間壓到最短;在風電、燃氣與燃煤機組上,同樣的技術可用於振動與溫度特徵的早期偵測,以延長壽命、降低突發停機。我們的經驗發現,在大型太陽能案場使用AI驅動的監控服務,可以將發電損失由5.5%降至0.9%,以短期台灣20 GW的太陽能目標(2025年時)來看,可以省下將近4個超大型太陽能案場的規模。在新一代電網中,穩定供電不再只是「發多少、用多少」的平衡,而是必須在複雜且瞬息變化的情境下,同步協調發電、充放電、價格預測與供需調度。這需要在邊緣(edge)即時運算與決策的AI系統,透過感測器與IoT架構收集數位電表、風機、變壓器、輸電設備等即時資料,提前預警設備異常、降低停機風險。同時協調各種發電來源、儲能電池與用電端,組成虛擬電廠(VPP),在尖峰時段回饋電網。傳統多依賴規則式控制,如今可結合強化學習(Reinforcement Learning),在模擬中反覆優化策略,提升調度效率。由於能源已被歐盟《AI Act》列為高風險應用,這類系統必須兼顧可解釋性與審查機制,確保關鍵決策既快速又可追溯。在此情境下,EdgeAI也會逐漸在能源扮演關鍵角色。能源轉型不僅帶來產業結構的重整,還創造智慧電網與綠能服務的新機會。當AI融入能源,發電、輸配、儲能與用電端不再彼此獨立,而是透過演算法與即時資料緊密整合,形成具備韌性、可優化且能交易的動態網路,讓能源成為可被彈性調度的資產。數據呈現這一趨勢背後的產業規模:AI在再生能源市場的規模,從2022年約6億美元,預計將躍升至2032年的46億美元,年複合成長率達23.2%。同時,智慧能源市場(smart energy)在2022年約為153.8億美元,預測將成長至2030年約316.4億美元,年複合成長率約9.6%。顯而易見,Intelligence與Energy的結合已成為全球基礎建設的雙引擎,在AI主權、能源安全、與氣候議題三重壓力下,更是國家與企業競爭優勢發展關鍵。
2025-08-20
Energy + Intelligence:AI時代的能源挑戰與產業契機
歷史的軌跡顯示,過去生產力的提升總伴隨高密度的能源轉換與工業效率提升:從水力、蒸汽、電氣化、汽車與石油,到IT與網際網路,如今輪到AI。LinkedIn創辦人Reid Hoffman新書提到的「Energy + Intelligence」之所以關鍵(之於國家或是企業),點出可負擔的算力決定智慧邊界,而算力終究受限於可取得、可擴充的電力與基礎設施。當全球掀起「主權 AI」競賽(涵蓋經濟、國防、研發、教育與價值體系),大型語言模型一次訓練動輒上億美元,帶動半導體與伺服器的巨額投資;更關鍵的是,推理(Inference,指模型訓練完成並部署後的實際運作)已取代訓練成為主要負載(約增至百倍等級),持續放大對能源與電網的需求。Intelligence需要Energy驅動。關鍵在 token 經濟學(參考前文);雖然 2021到2024 技術進展,讓每token成本大約下降3個數量級,但總token需求持續成長(例如近來財報揭露微軟(Microsoft)的用量1年約放大 5 倍、Google的月用量年增達數10倍)。能耗端的成長也很直觀:一次生成式查詢約耗電2.9 Wh,約為傳統搜尋0.3 Wh的近十倍。再加上Edge AI的普及,自駕車、工業電腦(IPC)、機器人、個人裝置與穿戴都開始具備推理能力。當產品體驗走向「more tokens, more capable」,AI資料中心成為企業、國家競相投資標的。AI資料中心(AIDC)急遽推升電力需求。AIDC在滿載運轉時,其耗電量可達10萬戶家庭的等級,超大型設施甚至放大20倍,相當於200萬戶。以美國為例,全國已有數千個資料中心,加拿大也接近500個,且新建規模持續增加。這些場站不僅需要更高電壓與直流(DC)供電,還必須採用晶片直冷(DtC)等先進散熱技術才能支撐高密度運算。根據多方預測,全球資料中心年耗電量在2030年前可能較2024年成長超過1倍,其中AI應用將是主要驅動力;IEA估計,在2030年, AI與加密貨幣合計將貢獻全球電力需求成長的4%。在能源結構轉型與碳排的限制下,這股快速竄升的用電壓力,正同時考驗電網擴充、再生能源佈建,以及供應鏈的應變速度。不只需要電,AIDC甚至AI供應鏈也需要來自再生能源的「綠電」,以滿足碳盤查與國際採購規範。綠電採購與碳管理從形象工程變成出貨門檻,買了綠電並不代表風險消失,案場差異、契約條件與實際發電偏差都需要數據與流程來支撐。企業應把綠電、用電與生產節奏同時考量,用可稽核的工具模擬與結算,讓採購組合真正對沖價格與排碳風險,同時提升營運韌性。不只AIDC,AI驅動進展的無人計程車同樣可能加重都會電力需求。比如某個都會區(如台北)每日用電約20 GWh,若一半計程車(約 1.25 萬輛)改為自駕電動車,每日額外耗電約0.8 GWh,佔全市日用電的4%。若充電集中在夜間6小時完成,瞬時功率需求可達140 MW,相當於多一座中型電廠的負載。這種轉型雖能減碳並提升運輸效率,但也對電網容量、調度與充電設施提出挑戰,必須透過排程、儲能與即時價格匹配,避免交通電動化成為新的負載風險。因此,新一輪的電網升級以「去碳化」、「分散化」與「數位化」為核心方向。隨著再生能源(太陽能、風力等)滲透率持續攀升,電網面臨低慣量與高波動的挑戰。天氣變化,可能在分鐘內改變發電輸出,衝擊電網穩定與調度反應。同時,分散式發電資源(屋頂光電、儲能、可移時用電)大量出現在電網末端,傳統以集中式大型機組為核心的調度模式已無法應付這種「多點、小規模、高波動」的新樣貌。這種結構變化不僅迫使電網架構升級,也催生新的營運模式與市場服務,例如即時需量反應(demand response)、虛擬電廠VPP、微電網(microgrid)等。要支撐這樣的系統,企業與電力公司必須將平台從單純監測升級為可跨廠牌、跨協定、跨場域的「監測+控制+資料交換」EMS(Energy Management System),並將預測直接納入控制邏輯,同時在設計階段預留關鍵機電、儲能與部分製程為可調度資產,讓用電從成本轉化為可創造價值的資源。近來有案例顯示,大型資料中心可在電力需求高峰時暫時降低 IT 負載或啟用備援電源,參與需量反應市場,這不僅有助電網穩定,對營運方也是額外收益來源(例如美國部分雲端業者與 ISO/RTO 合作,在夏季尖峰時段提供數十至上百MW的可釋放容量)。能源已不再只是營運成本,而是產品交付與市場競爭的先決條件。對製造業與雲端服務供應商而言,在電價波動與供應緊繃下維持穩定供電,直接影響合約履行與客戶信任。若能將場域設計為可調度資產,不僅可透過需量反應與虛擬電廠降低成本,亦能在電網緊急時反向供電創造收益。這波Energy + Intelligence的趨勢正推動電網更新,涵蓋高壓變電、儲能、智慧感測與監控、跨場域控制與預測平台等,並帶動相關供應鏈在台灣的成長動能。這既是支撐本地AI生態的必要條件,也是切入國際能源解決方案市場的契機。
2025-08-19
Edge AI產業來了嗎?
相較於目前大語言模型應用絕大部分在雲端伺服器上推論,Edge AI(邊緣AI)強調在裝置上獨立執行AI模型。這種架構差異在於:可大幅降低因網路傳輸造成的延遲,確保即時反應,即使在無網路離線下也能運作;資料不上傳雲端,確保資料私密與安全性。Edge AI有機會滿足許多新應用場域中對低延遲、高私密的關鍵要求。這半年來,透過技術突破、產業需求,以及發展軌跡,我們看到Edge AI的產業輪廓,正逐漸形成。模型演算法的高度競爭使得Edge端可用的AI模型愈來愈強大。近年來出現許多參數量在13B~70B級的精簡模型,透過知識蒸餾、量化壓縮、模型剪枝以及多專家混合(MoE)等技術,這些小模型在使用較少參數的同時還能大幅提升性能,縮小與大型模型的差距 。同時也配備了各種終端應用極度關鍵的推理(reasoning)能力,包括控制、決策、因果、規劃等。SoC與記憶體規格配置同樣是促成Edge AI崛起的要素。目前主流高階智慧型手機、NB的NPU(AI運算核心)已經接近100 TOPS,足夠讓這些終端模型每秒生成數十個token(語意單元),滿足應用場域(文字、語音對話)的生成品質要求。同時,透過低位元精度(如8或4位元)來表示模型權重,有助於大幅降低總位元數,使現有記憶體配置即可支援終端AI推論,釋放AI從雲端走向終端的巨大潛力。另一方面,各大廠商也在其晶片產品藍圖中,明確規劃未來的算力提升,進一步強化Edge AI可行性與效能。在初期應用情境中,智慧型手機成為Edge AI生態重要橋樑。手機不僅是首批受惠於AI能力提升的裝置,更自然作為雲端與各類在地智慧裝置之間的橋梁。透過手機,無線耳機、汽車、AR眼鏡等裝置都能與雲端和手機上的AI模型連動,實現多模態的Edge AI應用。例如,耳機可使用手機(AI模型)即時翻譯語音,車載系統可依靠手機輔助娛樂訊息,眼鏡則利用手機處理視覺、語音任務。智慧手機作為隨身超級終端,串聯各種周邊裝置,歷史軌跡也告訴我們,當網路封包(packet)的成本逐步下降,通訊功能便普及至各類終端設備。10年後(2017 年),行動產業達到高峰,無論是應用生態系或硬體供應鏈都蓬勃發展。同樣地,隨著token成本不斷下降,AI 能力延伸至新型態終端設備,觸發全新應用場景,也是值得期待。延伸報導專家講堂:鑑往知來:packet(網際網路)vs. token(大語言模型)垂直產業中也聽到應用面需求。過去手機SoC供應商的技術團隊,首要工作是優化品牌手機中相機應用的智慧功能,但從2024年開始,優化手機中LLM執行效率,成了品牌客戶的關鍵需求。工業場域中,也對於推理功能加速決策效益,工業機器人的執行效率多所期待。過去幾年,NAS在中小企業中大量採用,年複合成長率超過 15%,顯示這類用戶對資料管理與在地運算的高度需求。如今,這些用戶也期待能在終端設備上,享受到大型語言模型所帶來的自動化與知識管理功能。近來市場數據也顯示Edge AI正逐漸萌芽。在最新的季報中,蘋果(Apple)新款M4晶片強調AI效能,推動2025年第1季Mac營收年增15.5%,更值得注意的是,新晶片也在2024下半年吸引新用戶進入蘋果體系。高通(Qualcomm)因手機與車用AI需求激增,手機業務創新高,汽車業務更年增55%,公司也宣稱「Edge AI是未來業務成長主要推力」。NVIDIA的Orin車用AI平台單季營收年增103%,並與聯發科合作布局一系列全新終端SoC。晶片設計商與設備供應商正從Edge AI中實際獲利。也同時看到OpenAI 以約 65 億美元的全股票交易方式收購了由前蘋果首席設計長 Jony Ive 共同創立的 AI 硬體新創公司 io。這股趨勢Edge AI已從概念走向實質商業成長。儘管前景看好,Edge AI推廣仍面臨多重挑戰。首先是應用場域的擴展:用戶需求差異極大,不同行業與裝置對模型大小、功能要求各異,業者須在通用性與客製化間取得平衡,如何取得具泛化能力的精簡模型,解決場域問題,至關重要。其次是功耗與效能的權衡:終端裝置受限於電池與散熱條件,高複雜推理恐導致過熱與續航縮短,對晶片設計與電源管理設下更高要求。再者,生態系初期碎片化,硬體架構多、軟體缺乏統一標準,讓開發者必須針對各平台個別調適,增加成本與阻礙創新。這些挑戰若未克服,恐將削弱Edge AI的經濟性與可擴展性。不過,回顧行動產業的發展歷程,也為今日的Edge AI前瞻團隊提供寶貴借鏡。
2025-05-26
鑑往知來:Apps(行動網路)vs. Agents(大語言模型)
在前一文中,我們類比網際網路(Internet)以及現今大型語言模型(LLM)的發展軌跡,特別是網際網路的核心傳輸單位—封包(packet),LLM生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們試著描繪出token驅動的AI未來發展軌跡,並預判在產品形態、服務模式與產業價值鏈上的可能樣貌。另一可供借鏡的歷程,是應用程式(App)在行動網路時代所引爆的創新與變革。如今,在LLM/LVM多模態大模型推動下,一個以「Agent」為核心的應用生態正逐步成形。延續上文,我們嘗試從App的崛起歷程,看見代理(Agent)以及邊緣AI(Edge AI)未來的可能路徑。2007年開始,行動App實現即時互動與高速資料交換,行動用戶大量增加,源自於網路封包傳輸成本逐步下降,智慧型手機的運算效能與續航力的進展。App Store的出現更將過去分散、複雜的網頁互動模式,整合為圖形化、易於操作的應用程式介面,大幅降低使用門檻,使數位服務真正「行動化」、「普及化」。App 不再只是單一功能工具,更透過推播、定位、社群整合等特性,深度嵌入使用者生活。這也帶動「長尾效應」—不僅少數爆紅應用,而是無數利基型App滿足多元、個人化的需求。這場從網頁到App的轉變,不只是介面革新,更興起全新App驅動的生態系,翻轉整個數位服務的生產與分配模式,也同時快速推升行動裝置的需求(2017年達到高峰)。App Store 建構出一套雙邊市場機制,一端連結開發者創新、另一端連結全球使用者,使原本無法規模化的服務得以商品化、在地化與全球化。過去嶄露頭角的數位服務如Uber、LINE、Instagram皆倚賴App生態興起,而App的爆發也帶動晶片、感測器、模組、電池、記憶體等硬體需求,重塑行動裝置供應鏈結構,並促成新興品牌與 ODM/OEM 的崛起。Statista統計顯示,全球App下載量自2010年的60億次,成長至2023年的1,430億次,反映出App模式背後強大的規模經濟與網路效應。台灣廠商在這波行動化浪潮中,從晶圓代工、封裝測試到系統整合與 App 開發皆深度參與,建立完整供應鏈與生態網路。這段歷程不僅重塑行動產業結構,也為即將興起的AI代理(AI Agent)模式提供寶貴借鏡——當使用者介面再次從App進化為Agent,我們是否能搶先洞察使用需求、運算架構、標準制定與硬體整合的關鍵優勢?如果App是行動網路時代的使用介面,那麼由大模型LLM/LVM驅動的Agent,可能是 AI 時代的核心入口。Agent不僅理解自然語言(及各種感測訊號),還得具備任務規劃與執行能力,從單純對話升級為數位助理。透過多模態推理與工具鏈結,Agent的應用場景正快速擴展至自動化工作流程、專業諮詢、教育訓練與知識輔助等領域。未來極可能出現類似「Agent Store」的新型生態系,就如當年App Store一樣,匯集多樣化、可重組的智慧模組,滿足多樣性需求。這將加速硬體與軟體的分工整合,促進各種垂直應用場域(如工業、醫療、中小企業、消費者市場)中智慧代理的落地機會。隨著近來高效率推理模型的快速演進,以及LLM開源生態的蓬勃發展,更進一步推進這樣的可能性。同時,終端市場的實際需求也正在浮現,如中小企業的知識管理、自動化應用,以及工控領域中即時推理能力的渴望,也回應了市場的需要。終端裝置的硬體規格,也逐漸具備支撐Agent所需的AI算力與記憶體條件。隨著LLM開源社群快速演進,如13B等級模型已能在一般行動裝置上順利推理,token生成速度亦逐步接近應用需要,Edge AI的落地門檻正快速降低。根據預測,Edge AI晶片市場將自2023年的24億美元,成長至2033年的252億美元,年複合成長率高達26.5%。各大系統與晶片業者也已積極布局AI手機、車用SoC與AI PC平台。未來,Agent將可自然地嵌入手機、筆電、AR眼鏡、TWS耳機、機器人等多元終端裝置,成為新一代語言互動與任務導向操作的使用介面。當然,Agent技術的普及仍面臨諸多挑戰,除了使用者資料的授權與使用,日益增強的自主性也帶來安全、隱私、監管與倫理等層面的高度關注,技術本身的複雜度亦不容小覷。然而巧合的是,這些挑戰與機會的交織,恰如2007年行動網路時代初啟時的情境—從應用模式、生態系到硬體需求與供應鏈架構,皆醞釀著重塑的可能。Agent的發展,正釋出一種熟悉而微妙的訊號,預告另一波產業典範轉移的起點。
2025-05-16
鑑往知來:packet(網際網路)vs. token(大語言模型)
從資訊技術演進的歷程來看,過去數十年來網際網路(Internet)的核心傳輸單位—封包(packet),與現今AI時代的大型語言模型(LLM)生成單位—語意單元(token),在基礎設施、商業模式發展上呈現出明顯相似性。透過回顧packet的發展路徑,我們可以摸著石頭過河,描繪出token相關技術的潛在演進軌跡,並預判其在產品形態、服務模式與產業價值鏈上的可能樣貌。何謂封包(packet)?封包是網際網路資料傳輸的最小「訊息單位」。所有透過網路傳輸的訊息(不管是信件、語音、甚至影片串流)都被拆解為多個封包,每個封包內含傳輸資訊等重要資訊,確保資料在龐大複雜的網際網路中,正確無誤地抵達目的地。過去數十年,網路基礎設施的投資便是圍繞封包品質的確保(如錯誤重傳機制)、提升傳輸效率(如頻寬升級、資料壓縮),以及整體系統吞吐量(throughput)的擴展而展開。正是如此,過去三十年來,我們才有日益豐富的網路服務,如訊息溝通、電子商務、社群媒體、影音娛樂等。而在LLM中,token則成為關鍵「智能單位」。語言模型在處理自然語言時,將一段文字訊息拆解成多個token,每個token代表不同的語意片段,經由模型運算後再組合(生成)為有意義的內容。與封包相似,token的數量和生成效率直接影響運算成本以及使用者體驗。例如,過去3年AI運算基礎建設投資的大幅增長,就是為了確保LLM模型的能力(token品質)以及服務品質(token生成效率),甚至近期邊緣裝置上token處理能力的提升,也正逐漸顛覆AI應用的場域邊界,向更多元、即時且全新的場域擴張。單看過去三十幾年網際網路packet的發展,我們發現token也在走類似的進程。不管是基礎建設,或是3個技術優化方向,包括「品質保障」、「效率提升」,以及整體「系統吞吐量的擴展」。品質保障:網路早期透過TCP/IP協定來確保封包傳輸的正確性,而LLM則透過scaling law加大模型、使用更多訓練資料,甚至後來以思維鏈(Chain-of-Thought;CoT)為基礎的推理技術,確保生成的token內容正確且提供高品質推理服務。效率提升:隨著頻寬提升和資料壓縮等技術的成熟,封包傳輸成本大幅降低;同樣地,token處理成本亦透過模型蒸餾(distillation)、量化(quantization,使用較少位元表示數值)、KV Cache等張量(tensor)降維壓縮,或是使用更有效率的架構(如MoE)來降低運算量,甚至有機會使大模型有效地運行於終端裝置。系統吞吐量擴展:過去網際網路透過光纖技術和提升邊緣設備(交換器、路由器等)大幅提升資料傳輸量,或是使用內容傳遞網路(CDN)等技術提高封包全局效益;在LLM領域,資料中心的垂直擴充(scale-up,提高算力、記憶體等提昇單一伺服器效能)與水平擴充(scale-out,高速網路連結、排程提升分散式系統效能)、或是採用雲端—邊緣混合架構(Cloud-Edge-Hybrid)等,實現整體系統更高的token處理吞吐量,滿足未來多元且即時的應用需求。循著過去網際網路發展的主軸,我們可以預見AI技術即將引爆的下一波變革—智能「去中心化」(普及化),低成本token開始在終端設備上運行。情境將如同2007年行動網路興起之際,packet進入行動裝置,催生智慧型手機,也推動Uber、LINE等全新服務的誕生,引爆長達十數年的行動生態系蓬勃發展。網際網路數十年來最佳化packet傳輸技術,帶動網路服務的快速普及,特別在行動網路時代,我們見證大量新應用與商業模式的誕生。這段歷程也為觀察生成式AI提供重要參照—當前token的品質提升與單位成本下降,正如當年packet優化所引發的技術擴張與資本投入,預示著新一波智能設備與創新應用的興起。隨著token處理成本持續降低,AI有望成為如網路般的關鍵基礎設施,深刻重塑產業結構。近來多個開放LLM模型在效能與成本上的突破,更強化LLM商品化與大規模應用的趨勢。未來如何因應?過去的歷史已經顯明,在技術變革時,應以開放的態度,極力接近實際場域,理解技術應用發展方向,甚至與合作夥伴共同設計開發,參與組建生態系。更積極的作法,是投資(國際)學研單位,甚至新創團隊,理解新的場域應用,以及技術演進。鑑往知來,回顧packet的發展經驗(許多企業經營層也曾親歷其境),將使我們更有效地掌握token所帶來的顛覆性機遇。對資訊電子產業的投資者與決策者而言,更是攸關未來競爭優勢的關鍵課題。每一次產業典範的轉移,總會帶來新的硬體、服務、企業、生態系,甚至整個產業格局的興起與殞落。當我們已清楚AI大模型即將重塑未來十年的產業樣貌,或許網際(行動)網路曾走過的歷程,正可作為產業AI戰略規劃的重要借鏡。
2025-04-23
智慧應用 影音