跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
焦點追蹤

五角大廈的 AI 戰爭計畫:Palantir 演示如何利用 Anthropic Claude 進行目標決策

五角大廈與 Palantir 的最新演示顯示,Anthropic 的 Claude 等 AI 代理正被用於軍事目標排名與戰爭規劃。這引發了關於 AI 決策倫理以及人類指揮官在自動化戰爭中角色的激烈辯論。

Jason
Jason
· 2 分鐘閱讀
更新於 2026年3月14日
A high-tech military command center with giant holographic maps of a battlefield, a digital represen

⚡ TL;DR

五角大廈試驗將 AI 代理整合進軍事目標決策與戰略規劃。

戰爭遊戲的新「玩家」

現代戰爭的樣貌正在演算法中重塑。根據 Wired 與 MIT Technology Review 的最新披露,Palantir 與五角大廈的演示文件展示了生成式 AI 代理(AI Agents)如何被整合進軍事決策鏈。在這些演示中,像 Anthropic 的 Claude 這類大型語言模型不再只是聊天機器人,而是被用作戰略分析工具,幫助軍方在數秒內排名敵方目標並建議打擊方案。

根據一份 2026 年 3 月發表於 ArXiv 的研究(ArXiv: 2603.12230v1),邊緣計算與 AI 代理在「敏感環境」下的安全性正成為國防領域的核心課題。這份報告雖然來自 Perplexity 對 NIST 的回應,但其反映了業界對 AI 代理進入實戰決策的高度關注。五角大廈官員透露,AI 系統能處理人類大腦難以負荷的海量情報,將其轉化為可執行的「戰爭計畫」。

技術細節:Claude 如何處理戰爭?

在 Palantir 的 AIP(人工智慧平台)演示中,AI 代理被賦予了讀取加密軍事數據庫的權限。代理能分析衛星圖像、電子訊號情報以及氣象數據。例如,如果無人機發現一處可疑設施,AI 代理能迅速比對歷史數據,判斷其威脅等級,並根據當前的彈藥庫存與部隊位置,自動生成三種不同的攻擊或包圍方案供指揮官選擇。

這類應用的核心爭議在於「目標排序」。根據 MIT Technology Review 報導,五角大廈正考慮讓 AI 自動將目標進行分級,建議「應優先打擊哪一個」。雖然目前的軍事政策(如 DOD Directive 3000.09)要求必須有「適當的人類判斷」參與武力使用,但 AI 生成方案的速度可能讓人類指揮官淪為單純的「蓋章者」,這種「算法官僚」的風險引起了倫理學家的深切憂慮。

矽谷的倫理邊界:Anthropic 的左右為難

這項發展將 Anthropic 這類標榜「AI 安全」與「憲法 AI」的公司推向了風口浪尖。根據 The Verge 報導,Anthropic 內部曾多次表達對其技術被用於大規模監視與軍事行動的擔憂。然而,隨著五角大廈預算的湧入以及國防科技成為新的成長點,AI 公司發現很難將軍方拒之門外。

雖然 Anthropic 的服務條款禁止將模型用於非法暴力或宣傳,但「國防分析」與「戰術建議」之間的界線極其模糊。Palantir 作為五角大廈的主要供應商,其 AIP 平台實質上成為了商用 LLM 與軍事殺傷鏈之間的橋樑。這種合作模式引發了矽谷內部的分裂:一派認為這是應對敵對國家威脅的必要舉措,另一派則擔心商用模型缺乏處理致命性決策所需的強健性與安全性。

法規與倫理:DOD 指令 3000.09 的挑戰

法律專家正密切關注美國國防部對於「自主武器系統」的定義。2023 年更新的 DOD 指令 3000.09 雖然強化了對自主系統的審查,但對於「生成式 AI」產生的建議是否等同於「自主決定打擊」仍存有灰色地帶。如果 AI 代理過濾了 90% 的情報,僅將 10% 的「最佳目標」呈現給指揮官,這是否還能算作完全的人類判斷?

此外,AI 的「幻覺」問題在戰場上可能是致命的。如果 AI 錯誤地將一輛民用校車標註為敵方運輸車,後果不堪設想。目前的技術尚未能完全消除 AI 在複雜環境下的邏輯謬誤。然而,各國在 AI 軍事化的「軍備競賽」壓力下,似乎正冒著這些風險加速推進。未來的戰爭可能不再僅僅是資源與士兵的對抗,更是誰的 AI 代理能更精準、更快速地重構戰場事實的對抗。

常見問題

AI 會直接決定發射飛彈嗎?

目前根據國防部指令,所有武力使用必須有「人類判斷」。AI 目前僅負責「建議」和「排名」目標,最後決定權仍由人類掌握。

Anthropic 允許其技術用於軍事嗎?

Anthropic 禁止非法暴力使用,但其與 Palantir 等國防商的合作顯示,其技術已被用於合法的「國防分析與規劃」。

AI 在戰場上會有什麼風險?

最大的風險是「幻覺」與錯誤標籤,可能導致對平民目標的誤判,以及人類指揮官因決策過快而失去實質控制權。