法律戰升級:AI 安全巨頭與國防部的正面對決
人工智慧新創公司 Anthropic 近期與美國國防部(Pentagon)陷入激烈的法律糾紛。根據《TechCrunch》報導,Anthropic 於本週五向加州聯邦法院提交了兩份宣誓聲明,正式反擊五角大廈關於該公司對「國家安全構成不可接受風險」的指控。這場爭端的核心在於政府擔心 Anthropic 可能在戰爭期間操縱或破壞其 AI 工具,而 Anthropic 則堅稱這種指控在技術上完全不可能實現。
這起訴訟揭露了長達數月的祕密談判。諷刺的是,法院文件顯示,就在川普總統宣布雙方關係破裂的一週前,五角大廈官員還曾告知 Anthropic 雙方的立場已「接近一致」。這種戲劇性的轉折引發了法律界對於行政程序公正性的質疑,認為政府的最終決定可能受到了政治干預,而非純粹的技術風險評估。
技術性誤解還是政治算計?
五角大廈在指控中提到,Anthropic 擁有的模型控制權可能導致其在關鍵軍事衝突中關閉服務,或對模型輸出進行惡意干擾。然而,Anthropic 的執行長與技術團隊在法院聲明中指出,政府的指控源於對 AI 架構的「技術性誤解」。根據《Wired》的分析,Anthropic 強調其 Claude 模型的部署方式使得開發者無法隨意在遠端植入「後門」或在戰時實施破壞。
法律專家指出,此案的核心法律依據可能是《行政程序法》(APA)。Anthropic 辯稱國防部的風險認定是「任意且反覆無常的」(arbitrary and capricious)。在國家安全領域,雖然行政部門擁有廣泛的自由裁量權,但私營承包商仍有權質疑政府在事實認定上的錯誤,特別是當這些認定缺乏正當程序或科學依據時。
產業影響:矽谷與華盛頓的信任危機
此事件在科技界引發了寒蟬效應。長期以來,Anthropic 一直標榜自己為「AI 安全」的領導者,其與政府的對抗顯示出,即使是致力於合規的公司,也可能在涉及國家安全利益時被視為威脅。根據 Google Trends 資料顯示,美國加州對於「AI 安全」及「Anthropic」的搜尋熱度在過去 48 小時內飆升至 100,顯示公眾與產業觀察者對此案的高度關注。
如果 Anthropic 最終敗訴,這可能意味著所有與國防部合作的 AI 供應商都必須交出更高層級的技術控制權,甚至是核心原始碼。這對於強調智慧財產權保護的矽谷公司來說,是一個極大的轉向。目前,Anthropic 已要求法院撤銷政府的限制令,並恢復其作為合格國防供應商的地位。
未來展望:法制化的國家安全評估
隨著 AI 技術與現代戰爭的結合日益緊密,如何定義「可接受的風險」成為法學與技術的雙重難題。Anthropic 的訴訟案可能成為一個里程碑,迫使五角大廈建立更透明、更具技術素養的審查機制,而非依賴籠統的「安全風險」名義。法學界預計,此案將迫使政府官員在法庭上解釋其技術評估的細節,這在過去的國家安全案件中是極為罕見的。
這場法律戰的結果將直接影響未來 AI 公司參與政府標案的意願與條款。在「全球 AI 霸權」爭奪戰中,美國內部政商關係的穩定性,將是決定勝負的關鍵因素之一。

