政策解讀
Jessy·
Anthropic 與美國國防部法律戰升級:供應鏈風險爭議背後的技術博弈
Anthropic 正在與美國國防部進行法律對抗,反對該公司被列為「供應鏈風險」。最新的法院文件顯示政府決策矛盾,而 OpenAI 與 Google DeepMind 的員工更罕見地提交法庭之友文書表示支持,引發對政府監管權擴張的關注。
Anthropic 正在與美國國防部進行法律對抗,反對該公司被列為「供應鏈風險」。最新的法院文件顯示政府決策矛盾,而 OpenAI 與 Google DeepMind 的員工更罕見地提交法庭之友文書表示支持,引發對政府監管權擴張的關注。
Anthropic 對美國國防部提起訴訟,抗議被標記為「供應鏈風險」而遭禁用。這項爭議引發了 AI 產業的高度團結,包括 Google 與 OpenAI 員工在內的 40 名科學家提交了 Amicus Brief 聲援,抗議政府權力過度擴張。此案將決定未來 AI 企業在國家安全框架下的法律保障與商業運作空間。
Anthropic 於 2026 年 3 月起訴美國國防部,抗議被列為「供應鏈風險」名單,此舉導致其 Claude AI 技術遭聯邦禁用。公司稱這是川普政府將合約用途爭議非法升級為行政禁令,案件引發關於 AI 倫理與國家安全界線的法律大戰。
Anthropic 對美國國防部提起訴訟,抗議其被列入「供應鏈風險」名單,此舉實際上禁止了 Claude 模型進入聯邦市場。這場官司涉及正當程序與國家安全權力的法律邊界,同時 OpenAI 也因軍事合約引發高層離職潮,凸顯了矽谷與國防體系之間日益加劇的矛盾。