跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

Anthropic 反駁五角大廈:AI 模型並無國家安全風險

Anthropic 反駁國防部將其 AI 模型列為國家安全風險的指控,認為這源於技術誤解,並指責國防部決策缺乏透明度。

Jessy
Jessy
· 1 分鐘閱讀
更新於 2026年3月22日
A conceptual digital illustration of a glowing AI neural network silhouette intertwined with a milit

⚡ TL;DR

Anthropic 透過法院文件反駁五角大廈關於其 AI 有國安風險的指控,強調雙方溝通存在矛盾。

科技開發與國防監管的衝突

AI 初創公司 Anthropic 正面臨來自美國國防部(DoD)的嚴厲審查,後者指控其 AI 模型對國家安全構成「不可接受的風險」。根據 Wired 與 TechCrunch 的報導,Anthropic 已提交法律文件,強烈否認其模型在戰時可能遭到破壞或被濫用的說法,並指責政府的立場源於對技術細節的誤解。

法律訴訟中的程序正義

這場爭議涉及行政程序法(APA)中關於聯邦採購與國家安全認定的挑戰。最新法院文件顯示,儘管五角大廈將該公司列為國家安全風險,但事實上在相關溝通中,雙方在許多關鍵技術標準上幾乎已達成共識。Anthropic 高管認為,政府的強硬措辭與實際的磋商過程存在明顯矛盾,並對政府決策過程的透明度提出質疑。法律觀察家指出,此案核心在於國防部對於防務相關基礎設施的嚴格審查,是否符合 procedural transparency 與 evidence-based 標準。

產業與政策影響

此事件凸顯了私營 AI 開發者與政府監管機構之間日益緊張的關係。隨著生成式 AI 被納入軍事應用,國家安全監管體系如何定義與評估「人工智慧潛在威脅」將成為未來政策的核心。Anthropic 的抗爭不僅是為了維護自身聲譽,更是在為整個 AI 產業爭取合理的研究與發展空間。

未來展望

該法律鬥爭仍處於初期階段。五角大廈的立場將如何調整,以及法院將如何判定這些技術風險的性質,將成為後續觀察的重點。對於投資人與科技產業而言,這不僅是一家公司的訴訟,更是一場關於 AI 如何服務國防的定義之戰。

常見問題

為什麼五角大廈認為 Anthropic 的 AI 有風險?

國防部聲稱在戰時,Anthropic 的模型可能被操控或遭到破壞,從而引發「不可接受的國安風險」。

Anthropic 是如何回應的?

Anthropic 否認這些說法,認為這完全是不可能發生的技術誤解,並指控政府在公開立場與私下協商過程中存在明顯的矛盾。

此案對未來有何影響?

此案將界定私營 AI 公司與國防部合作的審查標準,對於未來的軍用 AI 監管政策與技術透明度具有指標性意義。