Anthropic 執行長拒絕五角大廈最後通牒:堅持 AI 安全紅線
硬碰硬:Dario Amodei 的道德抉擇
AI 獨角獸 Anthropic 與美國國防部(Pentagon)之間的緊張關係今日達到頂點。Anthropic 執行長 Dario Amodei 正式拒絕了五角大廈要求取消其 AI 模型安全防護(Safeguards)的最後通牒。國防部此前要求 Anthropic 提供其系統的無限制存取權,以利於開發潛在的殺傷性自主武器(Lethal Autonomous Weapons),但遭到了 Anthropic 的斷然拒絕。
根據 TechCrunch (2026) 報導,Amodei 在一份公開聲明中表示:「我們無法在良知的驅使下同意這些條款。」他強調,Anthropic 的核心宗旨是開發安全且受控的人工智慧,這與國防部希望繞過安全機制的要求背道而馳。
五角大廈的威脅:列入「供應鏈黑名單」
美國國防部長 Pete Hegseth 此前曾發出嚴厲警告,威脅若 Anthropic 不配合,將會把該公司從國防部及其合作夥伴的供應鏈中移除。這意味著 Anthropic 可能失去數十億美元的政府標案,並面臨國家安全審查。
BBC Tech (2026) 指出,五角大廈目前正推動 AI 技術與軍事硬體的深度整合,而 Anthropic 堅持的「憲法 AI」(Constitutional AI)架構被軍方視為絆腳石。軍方官員認為,過多的安全限制會影響 AI 在戰場上的反應速度和決策能力。
法律與倫理的拉鋸戰
這場爭端的核心在於 2020 年確立的「AI 倫理原則」與當前地緣政治下的軍事需求衝突。根據法律背景分析,五角大廈正引用聯邦收購法規(DFARS)中的國家安全條款來施壓。然而,Anthropic 主張這違反了關於「安全、可靠與可信賴 AI」的第 14110 號行政命令的精神。
未來展望:矽谷與華府的裂痕加深
Anthropic 的強硬立場使其成為矽谷對抗 AI 軍事化的指標。如果五角大廈真的執行黑名單政策,這將迫使 Anthropic 尋找非軍事領域的合作對象,同時也可能導致其他 AI 公司面臨同樣的壓力測試。這場僵局將決定未來十年 AI 發展的倫理基調:究竟是安全優先,還是軍事效能優先?

