跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

五角大廈與 Anthropic 決裂:國防部轉向機密資料 AI 訓練並尋求替代方案

美國司法部表示 Anthropic 的 AI 模型因過度限制而不適合作戰,五角大廈正計劃建立機密訓練環境以開發「軍用主權版」模型,並尋求其他科技合作夥伴。

Jessy
Jessy
· 2 分鐘閱讀
更新於 2026年3月18日
A dimly lit, high-security server room with a 'Classified' seal on the door, screens showing abstrac

⚡ TL;DR

五角大廈因安全過濾爭議拒用 Anthropic,轉而推動在機密資料上訓練專用軍用 AI。

國防部與 AI 巨頭的信任危機

美國司法部近日針對 Anthropic 發起的訴訟做出強硬回應,明確表示該公司的 Claude AI 模型不應被信任用於軍事作戰系統。這一聲明標誌著美國軍方與領先 AI 實驗室之間日益嚴峻的緊張關係。根據 WIRED 的報導,司法部認為 Anthropic 試圖在其模型中加入嚴格的使用限制,這可能與軍事行動的靈活性與即時需求產生衝突。

Anthropic 此前對美國國防部(DOD)提起訴訟,挑戰軍方對其施加的處罰,這些處罰源於該公司拒絕放寬其 AI 安全過濾器。司法部在法庭文件中辯稱,私營實驗室設定的「合約安全護欄」可能會損害國家安全利益,特別是在瞬息萬變的戰場環境中。

機密資料訓練:軍用 AI 的新路徑

面對與商業 AI 供應商的僵持,五角大廈正在制定一套全新的策略。根據 MIT Technology Review 的獨家報導,國防官員透露,政府正計劃建立安全的封閉環境,讓 AI 公司能直接在機密資料(Classified Data)上訓練模型。這類模型將被視為「主權版本」,專為分析伊朗軍事目標等高度敏感任務設計。

這項轉變的技術基礎在於確保機密資訊不外流。目前的商業模型(如 Claude 或 GPT-4)多數在公開互聯網資料上訓練,其預設的道德護欄往往無法適應戰爭中的極端情境。根據 PubMed 在 2026 年 1 月發布的研究(PMC:12832734),Claude Sonnet 在處理道德場景時表現出明顯的「語境敏感模式」,這雖然在民用領域是優點,但在需要果斷決策的軍事指令下卻可能成為障礙。

尋求替代方案:國防科技的新格局

TechCrunch 報導指出,五角大廈已經開始積極尋求 Anthropic 以外的替代供應商。國防部對那些願意配合軍方特殊需求、並接受更深度監管的初創企業表現出濃厚興趣。這可能導致國防 AI 市場的重新大洗牌,將重心從傳統的矽谷科技巨頭轉向專注於防務領域的新興科技公司(DefenseTech)。

此外,國防部官員也強調了「可解釋性」的重要性。在機密資料上訓練的模型必須具備透明的決策路徑,以避免在戰爭中出現不可預測的 AI 行為。目前的法律框架正處於十字路口,這場訴訟的結果將測試「國家安全豁免權」在 AI 監管中的界限。

全球趨勢與地緣政治考量

此一事件反映了全球 AI 競賽中的一個關鍵議題:當 AI 成為核心軍事資產時,主權控制力與企業價值觀之間的衝突。根據數據顯示,美國加州地區對「AI 檢測」與「軍事 AI」的搜尋熱度持續攀升。隨著戰爭形態向無人化與智慧化轉變,誰能定義 AI 的「道德底線」,誰就掌握了未來的作戰主動權。

結語:AI 治理的軍事邊界

五角大廈與 Anthropic 的決裂,預示著 AI 公司與政府關係的轉折點。未來,我們可能會看到「雙軌制」AI 的發展:一軌是遵循民用道德與隱私規範的商業 AI;另一軌則是專為國家安全設計、在機密環境中成長的封閉式 AI。這場法律與技術的博弈,將決定未來十年全球地緣政治的格局。

常見問題

為何五角大廈認為 Anthropic 不可信?

因為 Anthropic 堅持在其模型中保留嚴格的安全過濾器,國防部認為這會限制軍事行動中的決策靈活性,甚至導致 AI 在關鍵時刻拒絕執行命令。

什麼是機密資料 AI 訓練?

這是一種在高度安全的環境下,讓 AI 學習政府內部未公開的敏感資訊,以生成專為國防任務(如目標識別或戰場模擬)優化的模型。

這對其他 AI 公司有什麼影響?

這為那些願意配合政府特定需求的 DefenseTech 初創公司創造了巨大機會,同時也迫使像 OpenAI 或 Google 這樣的巨頭必須在民用價值觀與軍事合約間做出選擇。