根據WHO的研究,每年全球約有130萬人死於交通事故,這樣的數目高於每年因HIV/AIDS致死人數,或是等同於每30秒就有一人因車禍受難。肇事的原因可能因為機械問題,或是其他車輛的失誤。常見的是行車時沒有察覺路況(疲累、撿掉下的手機等)、預估失準、或是在關鍵時刻無法適時反應而造成意外。
目前逐漸興起的自駕技術可以讓行車更安全嗎?根據Waymo近來的研究,自駕技術可以彌補人類的失誤,大大降低肇事或是減輕傷害。他們挑選了美國鳳凰城某郊區從2008到2017年過去91件重大車禍,使用模擬的方式讓自駕技術介入事件中。其中52件肇事者(超速、闖紅燈、酒駕等)案例,如果換為自動駕駛的話,可以100%完全避免;39件受害者的案例中,85%可以完全避免,10%降低傷害。其他的研究更顯示,如果90%是自駕車,在美國因駕駛而造成的死亡人數會由一年3.24萬人降至1.13萬人。
如何做到的呢?舉例來說,在十字路口雖有路權綠燈通過,此時自駕技術察覺左方有車輛高速接近,同時預測高速逼近的車子不可能在紅燈前停止,可能有碰撞風險,因此自駕車重新規劃路徑,煞車、油門同時作動,主動減速避開可能的碰撞。
為了達成安全駕駛,自駕車的技術可以區分為四大模組,缺一不可:感知(perception)—理解環境目前狀態、預測(prediction) —未來可能的變化、規劃(planning) —因應變化該如何作動、控制(control):執行車輛機械作動。所以自駕技術必須被動的察覺環境變化,並主動的規劃執行安全、有效率、以及舒適的行車移動。雖然與先進駕駛輔助系統(ADAS)目的不同,但是相關的技術也可用來提升目前商業化的L2、L3技術。
到目前為止,感知模組使用了最多的深度學習技術,這也是目前產業界最關注的部分。何種感測器最符合成本效益?可以提供最高的可靠性?目前還在開放討論中。但是純視覺(多鏡頭)絕對是不可或缺的;雷達(Radar)、超音波(Ultra Sonic)性價比高,還是不斷演進中。跨感測器的融合可以解決感測器的限制,例如光達(LiDAR)在遠處,會有點數稀疏的問題,雖然距離準確,但是遠處物件很難辨識,目前有許多相當到位的研究,展示如何截長補短提供穩定、高CP值的感知模組。
另一個趨勢是倡議感知以及預測模組協同計算,而不是獨立運作。可以想像的是如果辨識(偵測)效果越好,預測一定更準確;同時,準確的路徑預測也會改進感知,例如追蹤某輛車子路徑進入陰影中。所以目前許多研究使用了end-to-end的深度學習技術,同時執行感知以及預測,納入多個序列畫面,使用深度學習網路來預測各個時間點的可能物件位置。一般做法都是使用occupancy grid (OG)的方式,也就是將行車空間分隔為許多小方格,預測接下來的時間點這些方格內可能會有哪些物件,以機率的形式輸出。實驗結果發現可以大大提升自駕的穩定度,同時提升感知以及預測效果。
前瞻技術已經撼動汽車產業,不管是自駕或是較保守的ADAS系統,或是運用在EV或是傳統內燃引擎,使用智慧技術來改變交通樣貌已成為必然的趨勢。產業需要更多的感測器,符合車規、效率、節能的運算(及通訊)平台來執行各種智慧模組,這都是過去未曾有過的規格。而且一旦車輛的行駛方式改變,保險、財務、或是娛樂,甚至是都會的週邊設備也勢必得一起更動了。
徐宏民(Winston Hsu)現任富智捷(MobileDrive)技術長暨副總經理以及台大資訊工程學系教授。哥倫比亞大學電機博士,專精於機器學習、大規模影像視訊搜尋與辨識。為訊連科技研發團隊創始成員,慧景科技(thingnario)共同創辦人,NVIDIA AI Lab計畫主持人;曾任IBM華生研究中心客座研究員、美國微軟研究院客座研究員。習慣從學術及產業界的角度檢驗技術發展的機會;十餘年產學合作及新創經驗。曾獲2018 IBM Research Pat Goldberg Memorial Best Paper Award 、2018偽裝人臉辨識冠軍、傑出資訊人才獎、吳大猷先生紀念獎等國內外研究獎項。