跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

演算法後的沉默:ChatGPT 曾預警加拿大槍擊犯暴力傾向,為何 OpenAI 沒報警?

調查發現,加拿大槍擊案兇嫌曾向 ChatGPT 描述暴力意圖並觸發安全警告。OpenAI 內部曾討論報警但因未達門檻而作罷,此舉引發 AI 平台法律責任與預警義務的激烈爭論。

Jason
Jason
· 5 分鐘閱讀
引用 3 個來源更新於 2026年2月21日
A person sitting in a dark room illuminated only by a laptop screen showing a ChatGPT interface. The

⚡ TL;DR

ChatGPT 曾偵測到槍擊案兇嫌暴力傾向,OpenAI 內部辯論後未報警,引發公共安全預警機制爭議。

演算法後的沉默:ChatGPT 曾預警加拿大槍擊犯暴力傾向,為何 OpenAI 沒報警?

致命的對話:Tumbler Ridge 槍擊案前的預警

日前發生在加拿大校園槍擊案的兇嫌 Jesse Van Rootselaar,犯案前數月曾與 ChatGPT 進行過大量涉及極端暴力的對話。根據 The Verge (2026) 的報導,這些對話早在去年六月就觸發了 OpenAI 的自動化內容審核系統。內部紀錄顯示,OpenAI 的員工曾辯論是否報警,但最終僅停用了該帳號。

內部的猶豫:為何「預警」未能阻止「悲劇」?

根據 BBC (2026) 的報導,OpenAI 評估其內容「未達到具體威脅門檻」。這反映了 AI 公司在處理用戶隱私與公共安全之間的兩難. OpenAI 的內部政策要求,只有在存在「迫在眉睫的生命威脅」時才會通報。對於 Jesse 而言,其對話涉及虛構描述,AI 模型難以精準區分計畫與幻想。

法律分析:AI 平台的「警告義務」

根據 TechCrunch (2026) 的報導,加拿大與美國法律對於 AI 公司的「報警義務」責任認定尚不明確。學術研究如 ArXiv 2602.17646v1 也指出,多輪人機協作中的規則設置需要更明確的框架。此次慘劇極可能推動各國政府針對 AI 安全法規(如 RAISE Act)制定強制性報警協議。

常見問題

為什麼 OpenAI 當時不報警?

OpenAI 宣稱其行為觸發了警告,但根據當時的模型評估,其內容並未指向具體且迫在眉睫的生命威脅。

AI 真的能區分幻想與現實計畫嗎?

目前這是 LLM 最大的挑戰之一。研究顯示 AI 容易在長對話中失去對真實意圖的判斷力。

這會導致以後我們跟 AI 聊天都被監視嗎?

這是隱私倡議者的核心擔憂。未來的監管可能需要在安全監控與用戶隱私權之間尋求更透明的平衡點。

📖 參考來源