自動駕駛系統面臨的「社會符號」挑戰
自動駕駛技術雖已進入商業化初期,但在處理複雜的公共與安全符號時,仍顯露出明顯侷限。WIRED 近期報導了一項案例,某學區試圖協助自動駕駛車輛(Waymo)識別校車停車信號,結果卻未能達成預期效果。這不僅是一個技術失敗,更凸顯了自動駕駛系統在學習複雜人類社會規範與安全法規時,依然面臨嚴峻的挑戰。
責任釐清與監管框架
在自動駕駛車輛與傳統交通參與者(如校車、救護車)發生交互時,法律責任的歸屬成為關鍵。目前的監管框架,例如加州與亞利桑那州的 AV 測試許可,通常基於 SAE 的自動化標準。然而,若車輛因無法識別校車停車標誌而造成安全疑慮,這已觸及傳統交通法規。若 AI 無法遵守此類明確的公共安全符號,相關監管單位(如車輛管理局 DMV)可能會審視甚至暫停其測試許可。
技術與實踐的巨大鴻溝
AI 模型通常透過海量數據進行訓練,但在處理像校車停車信號這種「情境化」非常強的場景時,單純依賴感知數據往往不足。研究顯示,即使是有經驗的 AI 系統,在面對非標準化的路況或極端安全要求時,仍會出現無法對人類指示做出正確反應的情況。這種「感知與理解」的差距,導致在高度重視公共安全的領域中,完全依賴自動駕駛技術依然存在極高風險。
展望未來:從封閉測驗到社會場域
該學區的嘗試失敗,提醒了產業鏈中的所有參與者,自動駕駛不應只是技術閉門造車。開發商需要與地方機構、學區及交通部門進行更深刻的數據與邏輯合作,將人類對於公共安全的直覺納入系統邏輯。隨著政策與技術的不斷演變,未來自動駕駛車輛要真正進入校園與人流密集區,必須在軟體感知與法規適應性上做出質的突破。
