戰爭遊戲的新「玩家」
現代戰爭的樣貌正在演算法中重塑。根據 Wired 與 MIT Technology Review 的最新披露,Palantir 與五角大廈的演示文件展示了生成式 AI 代理(AI Agents)如何被整合進軍事決策鏈。在這些演示中,像 Anthropic 的 Claude 這類大型語言模型不再只是聊天機器人,而是被用作戰略分析工具,幫助軍方在數秒內排名敵方目標並建議打擊方案。
根據一份 2026 年 3 月發表於 ArXiv 的研究(ArXiv: 2603.12230v1),邊緣計算與 AI 代理在「敏感環境」下的安全性正成為國防領域的核心課題。這份報告雖然來自 Perplexity 對 NIST 的回應,但其反映了業界對 AI 代理進入實戰決策的高度關注。五角大廈官員透露,AI 系統能處理人類大腦難以負荷的海量情報,將其轉化為可執行的「戰爭計畫」。
技術細節:Claude 如何處理戰爭?
在 Palantir 的 AIP(人工智慧平台)演示中,AI 代理被賦予了讀取加密軍事數據庫的權限。代理能分析衛星圖像、電子訊號情報以及氣象數據。例如,如果無人機發現一處可疑設施,AI 代理能迅速比對歷史數據,判斷其威脅等級,並根據當前的彈藥庫存與部隊位置,自動生成三種不同的攻擊或包圍方案供指揮官選擇。
這類應用的核心爭議在於「目標排序」。根據 MIT Technology Review 報導,五角大廈正考慮讓 AI 自動將目標進行分級,建議「應優先打擊哪一個」。雖然目前的軍事政策(如 DOD Directive 3000.09)要求必須有「適當的人類判斷」參與武力使用,但 AI 生成方案的速度可能讓人類指揮官淪為單純的「蓋章者」,這種「算法官僚」的風險引起了倫理學家的深切憂慮。
矽谷的倫理邊界:Anthropic 的左右為難
這項發展將 Anthropic 這類標榜「AI 安全」與「憲法 AI」的公司推向了風口浪尖。根據 The Verge 報導,Anthropic 內部曾多次表達對其技術被用於大規模監視與軍事行動的擔憂。然而,隨著五角大廈預算的湧入以及國防科技成為新的成長點,AI 公司發現很難將軍方拒之門外。
雖然 Anthropic 的服務條款禁止將模型用於非法暴力或宣傳,但「國防分析」與「戰術建議」之間的界線極其模糊。Palantir 作為五角大廈的主要供應商,其 AIP 平台實質上成為了商用 LLM 與軍事殺傷鏈之間的橋樑。這種合作模式引發了矽谷內部的分裂:一派認為這是應對敵對國家威脅的必要舉措,另一派則擔心商用模型缺乏處理致命性決策所需的強健性與安全性。
法規與倫理:DOD 指令 3000.09 的挑戰
法律專家正密切關注美國國防部對於「自主武器系統」的定義。2023 年更新的 DOD 指令 3000.09 雖然強化了對自主系統的審查,但對於「生成式 AI」產生的建議是否等同於「自主決定打擊」仍存有灰色地帶。如果 AI 代理過濾了 90% 的情報,僅將 10% 的「最佳目標」呈現給指揮官,這是否還能算作完全的人類判斷?
此外,AI 的「幻覺」問題在戰場上可能是致命的。如果 AI 錯誤地將一輛民用校車標註為敵方運輸車,後果不堪設想。目前的技術尚未能完全消除 AI 在複雜環境下的邏輯謬誤。然而,各國在 AI 軍事化的「軍備競賽」壓力下,似乎正冒著這些風險加速推進。未來的戰爭可能不再僅僅是資源與士兵的對抗,更是誰的 AI 代理能更精準、更快速地重構戰場事實的對抗。

