Liabooks Home|PRISM News
自動駕駛車學不會「停車」這件事
科技AI分析

自動駕駛車學不會「停車」這件事

4分钟阅读Source

Waymo自動駕駛車在奧斯汀多次無視校車停車信號,事件揭示AI學習「例外情境」的根本困難。對亞洲自動駕駛產業有何啟示?

孩子剛從校車走下,還沒走完斑馬線——自動駕駛車就從她身旁駛過了。

這不是電影情節,而是發生在德州奧斯汀的真實紀錄。Waymo的自動駕駛計程車在校車亮起紅色閃燈、伸出停車臂時,未依法停車,直接通過。根據奧斯汀獨立學區(AISD)的說法,這樣的違規事件至少發生了19次。其中一次,車輛通過的時間點是「學生剛剛從車前方穿越、仍在路面上的數秒之後」。

召回之後,問題依然持續

Waymo在官網上這樣描述自家技術:「Waymo Driver從整個車隊的集體經驗中學習,包括過去的硬體世代。」這是自動駕駛技術最核心的承諾之一——一輛車犯的錯,所有車都能學到教訓。

但現實並非如此。

2025年12月初,Waymo向美國國家公路交通安全局(NHTSA)承認至少12起事件,並發布聯邦召回令。工程師在數週前已開發出軟體修正程式,但召回之後,違規並未停止。到2026年1月中旬,又新增至少4起事件。

AISD為了協助解決問題,採取了罕見的行動:在12月中旬於學校停車場舉辦了半天的「數據收集活動」,從超過550輛的車隊中調來7種不同型號的校車,讓Waymo工程師在不同距離下觀察閃燈與停車臂。然而,問題仍未解決。

美國國家運輸安全委員會(NTSB)的初步報告(2026年3月發布)顯示,1月12日的事件中,一名負責遠端協助的人類操作員錯誤地告知車輛「前方校車信號未啟動」,導致6輛車輛連續通過停著的校車。

就在同一個月,Waymo的車輛在加州聖塔莫尼卡撞上一名在學校附近穿越道路的孩童,所幸未受重傷。

PRISM

廣告合作

[email protected]

AI為何學不會「停車」?

喬治梅森大學自動駕駛研究員Missy Cummings指出,自動駕駛軟體長期以來就對閃爍的緊急燈光和細長型安全裝置(如欄杆和停車臂)辨識能力不足。「如果幾年前沒有修好這個問題,車輛行駛越多,問題就越嚴重。這正是現在發生的事。」

卡內基美隆大學研究員Philip Koopman則解釋了校車停車臂的特殊難度:「停止」的指示在不同情境下意義不同——路口的停車標誌、工地人員手持的指示牌、校車上的停車臂,AI必須學會極為細膩的區分。

「讓車輛99%的時間安全行駛,是相對容易的部分。但最後的1%才是真正困難的,因為我們在教導的是例外情況,」Koopman說。

此外,在停車場收集的數據,未必能反映真實道路的複雜性。AI的學習高度依賴數據的情境,脫離真實環境的訓練存在根本侷限。

對亞洲自動駕駛市場的意義

這起事件對亞洲科技產業具有直接的參考價值。中國大陸的百度Apollo文遠知行小馬智行等企業正積極推進自動駕駛商業化,部分城市已開放無人計程車服務。台灣的科技供應鏈,包括晶片設計與感測器製造,也深度嵌入全球自動駕駛生態系。

值得關注的是,中美在自動駕駛監管路徑上存在明顯差異。美國採取相對開放的「先部署、後監管」模式,讓企業在真實道路上積累數據;中國則傾向在特定封閉區域或嚴格劃定的路段進行測試,監管介入較早。Waymo的案例顯示,開放路測模式在數據積累上有優勢,但也意味著真實風險由公眾承擔。

對於台灣、香港、新加坡等地的政策制定者而言,這起事件提出了一個務實問題:在自動駕駛技術尚未完全解決「例外情境」之前,應如何設計上路標準?特別是在學校周邊、老年人聚集區域等高風險場域。

從商業角度看,Waymo的公關危機也提醒業界:技術信任的建立需要長期積累,一旦在最敏感的場景(兒童安全)出現反覆失誤,對整個產業的社會接受度都會造成影響。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]