跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

Anthropic 硬抗五角大廈:反駁「戰時破壞 AI」指控,揭露談判破裂內幕

Anthropic 向聯邦法院提交宣誓聲明,強力反擊五角大廈關於其 AI 模型可能在戰時被操縱或破壞的指控。文件顯示,在雙方關係因政治因素破裂前,曾一度接近達成共識。此案可能成為 AI 供應商與政府合作關係的重要法律判例。

Leo
Leo
· 2 分鐘閱讀
更新於 2026年3月21日
A courtroom scene where a glowing AI humanoid figure stands opposite a silhouette of a high-ranking

⚡ TL;DR

Anthropic 正式起訴五角大廈,否認其 AI 具備戰時破壞能力的指控,並指控政府在談判接近成功時受政治干預而反悔。

法律戰升級:AI 安全巨頭與國防部的正面對決

人工智慧新創公司 Anthropic 近期與美國國防部(Pentagon)陷入激烈的法律糾紛。根據《TechCrunch》報導,Anthropic 於本週五向加州聯邦法院提交了兩份宣誓聲明,正式反擊五角大廈關於該公司對「國家安全構成不可接受風險」的指控。這場爭端的核心在於政府擔心 Anthropic 可能在戰爭期間操縱或破壞其 AI 工具,而 Anthropic 則堅稱這種指控在技術上完全不可能實現。

這起訴訟揭露了長達數月的祕密談判。諷刺的是,法院文件顯示,就在川普總統宣布雙方關係破裂的一週前,五角大廈官員還曾告知 Anthropic 雙方的立場已「接近一致」。這種戲劇性的轉折引發了法律界對於行政程序公正性的質疑,認為政府的最終決定可能受到了政治干預,而非純粹的技術風險評估。

技術性誤解還是政治算計?

五角大廈在指控中提到,Anthropic 擁有的模型控制權可能導致其在關鍵軍事衝突中關閉服務,或對模型輸出進行惡意干擾。然而,Anthropic 的執行長與技術團隊在法院聲明中指出,政府的指控源於對 AI 架構的「技術性誤解」。根據《Wired》的分析,Anthropic 強調其 Claude 模型的部署方式使得開發者無法隨意在遠端植入「後門」或在戰時實施破壞。

法律專家指出,此案的核心法律依據可能是《行政程序法》(APA)。Anthropic 辯稱國防部的風險認定是「任意且反覆無常的」(arbitrary and capricious)。在國家安全領域,雖然行政部門擁有廣泛的自由裁量權,但私營承包商仍有權質疑政府在事實認定上的錯誤,特別是當這些認定缺乏正當程序或科學依據時。

產業影響:矽谷與華盛頓的信任危機

此事件在科技界引發了寒蟬效應。長期以來,Anthropic 一直標榜自己為「AI 安全」的領導者,其與政府的對抗顯示出,即使是致力於合規的公司,也可能在涉及國家安全利益時被視為威脅。根據 Google Trends 資料顯示,美國加州對於「AI 安全」及「Anthropic」的搜尋熱度在過去 48 小時內飆升至 100,顯示公眾與產業觀察者對此案的高度關注。

如果 Anthropic 最終敗訴,這可能意味著所有與國防部合作的 AI 供應商都必須交出更高層級的技術控制權,甚至是核心原始碼。這對於強調智慧財產權保護的矽谷公司來說,是一個極大的轉向。目前,Anthropic 已要求法院撤銷政府的限制令,並恢復其作為合格國防供應商的地位。

未來展望:法制化的國家安全評估

隨著 AI 技術與現代戰爭的結合日益緊密,如何定義「可接受的風險」成為法學與技術的雙重難題。Anthropic 的訴訟案可能成為一個里程碑,迫使五角大廈建立更透明、更具技術素養的審查機制,而非依賴籠統的「安全風險」名義。法學界預計,此案將迫使政府官員在法庭上解釋其技術評估的細節,這在過去的國家安全案件中是極為罕見的。

這場法律戰的結果將直接影響未來 AI 公司參與政府標案的意願與條款。在「全球 AI 霸權」爭奪戰中,美國內部政商關係的穩定性,將是決定勝負的關鍵因素之一。

常見問題

為什麼五角大廈認為 Anthropic 有風險?

政府擔心 Anthropic 可能在戰爭期間利用模型控制權關閉服務,或惡意修改 AI 輸出以干擾軍事行動。

Anthropic 具體如何反擊?

Anthropic 提交了宣誓聲明,稱政府的指控源於技術誤解,並強調在現有的模型架構下,開發者無法實施政府所擔心的遠端破壞。

這起法律戰會對科技業產生什麼影響?

如果政府勝訴,AI 公司可能需要交出核心技術控制權才能獲得政府合約,這會威脅到矽谷的智慧財產權保護模式。