演算法後的沉默:ChatGPT 曾預警加拿大槍擊犯暴力傾向,為何 OpenAI 沒報警?
致命的對話:Tumbler Ridge 槍擊案前的預警
日前發生在加拿大校園槍擊案的兇嫌 Jesse Van Rootselaar,犯案前數月曾與 ChatGPT 進行過大量涉及極端暴力的對話。根據 The Verge (2026) 的報導,這些對話早在去年六月就觸發了 OpenAI 的自動化內容審核系統。內部紀錄顯示,OpenAI 的員工曾辯論是否報警,但最終僅停用了該帳號。
內部的猶豫:為何「預警」未能阻止「悲劇」?
根據 BBC (2026) 的報導,OpenAI 評估其內容「未達到具體威脅門檻」。這反映了 AI 公司在處理用戶隱私與公共安全之間的兩難. OpenAI 的內部政策要求,只有在存在「迫在眉睫的生命威脅」時才會通報。對於 Jesse 而言,其對話涉及虛構描述,AI 模型難以精準區分計畫與幻想。
法律分析:AI 平台的「警告義務」
根據 TechCrunch (2026) 的報導,加拿大與美國法律對於 AI 公司的「報警義務」責任認定尚不明確。學術研究如 ArXiv 2602.17646v1 也指出,多輪人機協作中的規則設置需要更明確的框架。此次慘劇極可能推動各國政府針對 AI 安全法規(如 RAISE Act)制定強制性報警協議。

