跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

Anthropic 與五角大廈深陷安全爭議,法庭文件揭示協商歧見

Anthropic 與五角大廈爆發安全爭議。法庭文件顯示政府部門內部說法不一,且 Anthropic 否認其模型在戰時會構成國安風險。該公司正透過訴訟尋求真相。

Mark
Mark
· 2 分鐘閱讀
更新於 2026年3月22日
A courtroom scene with digital holographic projection overlay, showing a tech company executive faci

⚡ TL;DR

Anthropic 否認其 AI 模型存在國安風險,並在法庭上控訴五角大廈在協商中反覆無常。

國防安全與 AI 技術的對立點

AI 新創公司 Anthropic 近期與美國國防部(Pentagon)陷入了一場激烈的爭議。核心焦點在於五角大廈指控 Anthropic 的人工智慧模型存在「不可接受的國家安全風險」。儘管細節尚未完全公開,但市場傳聞該指控涉及模型在戰時狀態下可能被惡意操縱或遭到破壞的可能性。Anthropic 公司對此強力否認,並在法庭文件中指出,其模型設計具備極高的防禦機制。

協商過程的矛盾與不信任

根據 TechCrunch 披露的最新法庭文件,Anthropic 指出,國防部在宣布雙方關係破裂的一週前,曾向該公司表示兩者的安全標準已「近乎一致」。這種截然不同的官方說法顯示,五角大廈內部的溝通與決策過程可能存在高度不協調。Anthropic 在呈交給加州聯邦法院的誓詞中主張,政府對於人工智慧安全性的理解存在技術性偏差,並認為當局未經適當的行政流程就斷然採取敵對態度。

法律層面的博弈

從政府契約法(Government Contracting Law)與國家安全法的視角來看,這場爭議觸及了極其敏感的領域。Anthropic 目前正試圖透過法院強制調閱(Compel Discovery)政府內部通訊紀錄,以證明當局在過去數月的協商中表現出「惡意磋商」的態度。這是一個非常罕見的法律舉措,顯示該公司已準備好與聯邦政府進行長期的法律對抗。

技術倫理與國家安全平衡

這場爭議也再度引發了業界對於「AI 軍用化」的辯論。隨著 AI 在指揮與控制、物流管理甚至自動武器系統中的應用越來越廣,科技公司與軍方的關係變得異常緊張。Anthropic 堅持其 Claude 模型是為了協助決策與資訊處理而設計,並非軍事武器,拒絕接受其工具在戰爭中會造成國安威脅的指控。

未來觀察:程序正義與合約未來

目前的爭端目前處於事實模糊地帶。根據 fact_check_results 的資料,並沒有具體的學術論文或公開報告支持「Anthropic 模型在戰時必然導致國家安全崩潰」的特定指控。此案的關鍵在於未來法院如何裁定 Anthropic 是否享有行政程序正義(Due Process)。若法院裁定 Anthropic 勝訴,將為科技巨頭在挑戰國防部決策時樹立重要案例,反之則可能迫使 Anthropic 必須徹底重組其商業發展策略。

常見問題

為什麼五角大廈要對 Anthropic 採取敵對態度?

國防部稱 Anthropic 的 AI 模型存在國家安全風險,擔憂在戰時條件下可能被惡意操控。Anthropic 對此予以否認。

目前的爭議焦點在哪裡?

焦點在於政府內部對於 Anthropic 安全性的說法前後矛盾,以及 Anthropic 是否在該過程中遭遇了不公正的行政待遇。

這場訴訟的下一步是什麼?

Anthropic 正試圖透過法庭力量強制要求政府公開相關內部通訊紀錄,以釐清雙方協商中是否存在惡意阻撓行為。