跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

五角大廈 AI 變局:Anthropic 被列為「不可信」,軍方轉向讓 OpenAI 與 AWS 在機密環境訓練國防 AI

五角大廈與 AI 實驗室關係生變,司法部指 Anthropic 因其「安全護欄」限制模型軍事化而不可信。國防部轉向與 OpenAI 及 AWS 合作,計畫在隔絕的機密環境中訓練國防專屬 AI,以應對美伊衝突帶來的緊迫情報需求,標誌著 AI 技術與軍事工業的深度融合。

Jason
Jason
· 3 分鐘閱讀
更新於 2026年3月18日
A futuristic vault door within the Pentagon opening to reveal a glowing server rack with the OpenAI

⚡ TL;DR

五角大廈棄用「愛講道德」的 Anthropic,改攜手 OpenAI 在機密環境訓練更具殺傷力的專屬國防 AI。

矽谷與軍方的裂痕:當安全護欄與作戰需求發生衝突

五角大廈與頂尖 AI 實驗室的關係正經歷一場深刻的結構性震盪。根據 Wired 的報導,美國司法部近日明確表示,AI 巨頭 Anthropic 在處理戰爭系統方面「不可信任」。這一令人驚訝的聲明源於 Anthropic 為其 Claude 模型設定的嚴格安全護欄,這些護欄限制了模型在軍事殺傷性任務中的應用。對五角大廈而言,這種由私人企業定義的道德底線與軍事採購中的聯邦收購法規(FAR)產生了根本衝突,導致雙方關係迅速惡化。

Anthropic 一直致力於「負責任的 AI」(Responsible AI),但在國防部長與司法部的眼裡,這被解讀為在關鍵時刻可能導致系統失靈的「不可預測性」。當軍方需要一個能精確分析伊朗境內目標的 AI 工具時,他們無法接受一個可能會因為觸發「安全規則」而拒絕提供答案的系統。這場法律與商業的博弈,最終促使五角大廈尋求更符合軍方「狼性」需求的合作夥伴。

機密環境訓練:國防 AI 的新框架

為了擺脫對外部公有雲 AI 模型的依賴並解決安全顧慮,五角大廈正啟動一項宏大的新計畫。MIT Technology Review 披露,國防部官員證實,他們正計畫建立一個高度安全的實體環境,允許選定的 AI 公司在「機密數據」(Classified Data)上直接訓練其模型的軍事特化版。這是一個重大的戰略轉變,意味著軍方不再僅僅滿足於使用市售模型的 API,而是要擁有深度嵌入軍事邏輯的專屬模型。

這種新框架涉及《國家安全法》和第 13526 號行政命令的嚴格規範。參與的公司如 OpenAI 和 AWS 必須通過極其嚴苛的安全審查,並在物理隔絕的數據中心內進行作業。這不僅是為了防止機密外洩,更是為了確保 AI 在訓練過程中能徹底內化美軍的戰術規程。TechCrunch 指出,OpenAI 已經與 AWS 簽署了新的合作夥伴協議,旨在將其 AI 系統大規模銷售給美國政府,涵蓋機密與非機密業務。這一舉動無疑是在 Anthropic 退場後,迅速填補了市場真空。

OpenAI 的崛起與 Anthropic 的堅持

OpenAI 此次的積極擴張標誌著其公司特質的轉變。在放棄了早期禁止軍事應用的條款後,山姆·奧特曼(Sam Altman)領導的公司顯然決定深度擁抱國防市場。透過與 AWS 的聯手,OpenAI 能夠利用 AWS 已經成熟的政府雲(GovCloud)基礎設施,快速部署能處理 PB 級機密情報的生成式模型。這些模型將被應用於無人機目標識別、電子戰模擬以及戰場即時決策支援。

相比之下,Anthropic 的處境顯得孤高而艱難。雖然該公司的技術實力備受認可,但在地緣政治緊張度達到頂點的今天,其「憲法 AI」(Constitutional AI)理念被認為與國家生存利益格格不入。ArXiv 上的一篇研究論文(arXiv:2603.16417v1)指出,負面約束在 AI 對齊中具有結構性優勢,但當這些約束延伸至戰場禁忌時,就會成為政府採購中的法律絆腳石。司法部的強硬姿態實際上是在向矽谷發出訊號:在戰爭面前,企業的倫理選擇必須服從國家的軍事命令。

國防 AI 競爭的下一步:邁向自主作戰

隨著五角大廈開放機密數據進行訓練,我們正步入一個「專屬國防 AI」的時代。這不僅僅是聊天機器人的軍事化,而是涉及整個感測器網路、指揮系統與武器平台的智能化重構。未來的國防 AI 將具備更強的「主權性」,能夠在離線環境下穩定運行,且不受外部公司的道德更新影響。

然而,風險依然存在。在機密環境下訓練 AI 雖然解決了隱私與洩密問題,但卻減少了外部安全審查的機會。正如一些安全專家所擔心的,當 AI 學習了過多關於殺戮與作戰的「機密知識」後,如何確保其不會產生意想不到的偏誤或幻覺?目前的輿論趨勢顯示,公眾對於「機密 AI」的透明度深感憂慮,但在目前美伊衝突持續升溫的背景下,軍事優勢顯然被置於了透明度之上。我們正目睹一場軍事工業複合體(Military-Industrial Complex)與 AI 技術的深度融合,這將永遠改變未來戰爭的形態。

常見問題

為什麼 Anthropic 被五角大廈視為「不可信」?

並非其技術差,而是其堅持的模型安全護欄(Safety Guardrails)限制了軍事殺傷性應用,導致軍方認為其系統在戰場上具有「不可預測的拒絕行為」,不符合採購規定。

在機密環境訓練 AI 有什麼好處?

可以直接使用軍事情報、戰術手冊等非公開數據,使模型更精確地理解戰場環境,同時避免數據洩漏到公共雲端。

OpenAI 為什麼能成功獲得軍方青睞?

OpenAI 調整了其禁止軍事應用的政策,並透過與 AWS 的合作展示了極強的交付能力,符合目前川普政府對「實力至上」技術合作的偏好。