跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

Anthropic 透過法律手段挑戰五角大廈的安全指控

Anthropic 向法庭提交聲明,反駁國防部指控其 AI 模型對國家安全構成「不可接受風險」的說法,認為其基於技術誤解。

Jessy
Jessy
· 2 分鐘閱讀
更新於 2026年3月22日
A courtroom setting with digital overlays of abstract AI network structures and military radar inter

⚡ TL;DR

Anthropic 透過法律途徑反駁五角大廈,稱關於其 AI 模型存在「不可接受風險」的指控並非事實,僅為對技術的誤解。

安全與國防的監管風波

AI 開發商 Anthropic 近期陷入與美國國防部(Pentagon)的激烈法律爭議。根據相關法院文件的揭露,國防部曾公開質疑 Anthropic 的 AI 模型對國家安全構成「不可接受的風險」。這一指控在科技與國防領域引起巨大震盪,甚至一度有報導指出政府已凍結與該公司的合作關係。然而,最新的法庭文件顯示,Anthropic 正在極力反駁這些說法,稱這些論點源於對技術的誤解。

技術辯護與法律策略

根據 TechCrunch 與 Wired 的報導,Anthropic 透過提交 Sworn Declarations(宣誓聲明)向加州聯邦法院反擊,強調其模型的安全性與可控性。公司高層特別駁斥了關於該公司 AI 系統在戰時可能遭到惡意操控或「蓄意破壞」的指控,並認為這些風險評估並未經過詳盡的技術驗證。 Anthropic 的法律策略主要在於挑戰國防部在處理商業 AI 模型時的行政流程,認為其缺乏明確的產業標準與評估機制。

此爭議凸顯了當前美國政府在運用私人 AI 技術進行國防應用時的兩難。一方面,軍方急需尖端運算能力以保持優勢;另一方面,對軟體供應鏈安全與模型漏洞的隱憂,使得雙方的合作充滿摩擦。

產業與監管影響

此案件成為探討「AI 與國家安全」法規的重要案例。隨著生成式 AI 的廣泛部署,如何定義、測試並監管軍用級 AI 成為迫切課題。這場糾紛不僅影響 Anthropic 的政府業務,也為其他參與國防計畫的 AI 新創企業設立了先例:當面對政府機關的指控時,如何利用法律與技術證據進行有效的抗辯。

未來展望

儘管法院尚未作出最終判決,Anthropic 與五角大廈的對立反映了矽谷科技力量與傳統軍工體系在思維與技術標準上的衝突。未來值得關注的焦點包括:軍方是否會調整其對大型語言模型(LLM)的評估準則,以及法院最終如何界定「國防風險」與「商業創新」之間的法律邊界。

常見問題

五角大廈為什麼指控 Anthropic?

美國國防部認為 Anthropic 的 AI 模型在戰時可能被惡意操控或蓄意破壞,因此被列為「不可接受風險」。

Anthropic 如何回應?

Anthropic 透過法庭提交宣誓聲明,強調相關指控源於技術誤解,並否認其模型具備被蓄意破壞的潛在風險。

此案件為何重要?

它凸顯了軍方與科技業在 AI 國防應用安全性標準上的落差,並可能成為未來 AI 企業參與政府標案的法律先例。