政策解讀
Kenji·
五角大廈與 Anthropic 爆發「AI 安全紅線」爭議:國家安全與模型治理的極限對局
五角大廈正式將 AI 巨頭 Anthropic 列為供應鏈風險,主因是擔心其模型內建的「安全紅線」會在戰時導致系統停機。與此同時,軍方計畫讓 AI 業者在機密數據上進行軍事專用訓練,這引發了私人科技倫理與國家安全需求之間的深刻衝突,法律戰的結果將影響未來軍用 AI 的發展路徑。
五角大廈正式將 AI 巨頭 Anthropic 列為供應鏈風險,主因是擔心其模型內建的「安全紅線」會在戰時導致系統停機。與此同時,軍方計畫讓 AI 業者在機密數據上進行軍事專用訓練,這引發了私人科技倫理與國家安全需求之間的深刻衝突,法律戰的結果將影響未來軍用 AI 的發展路徑。
Anthropic 對美國國防部提起訴訟,抗議其被列入「供應鏈風險」名單,此舉實際上禁止了 Claude 模型進入聯邦市場。這場官司涉及正當程序與國家安全權力的法律邊界,同時 OpenAI 也因軍事合約引發高層離職潮,凸顯了矽谷與國防體系之間日益加劇的矛盾。