跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

Anthropic 執行長拒絕五角大廈最後通牒:堅持 AI 安全紅線

Anthropic 執行長拒絕了五角大廈要求取消 AI 安全限制的通牒,堅稱無法違背良知提供軍方無限制存取。國防部威脅將該公司列入黑名單,矽谷與政府間的倫理衝突白熱化。

Jessy
Jessy
· 5 分鐘閱讀
引用 3 個來源更新於 2026年2月27日
A futuristic standoff between a glowing, peaceful AI brain protected by a transparent shield and a d

⚡ TL;DR

Anthropic 執行長拒絕軍方取消 AI 安全紅線的要求,面臨被列入國防部供應鏈黑名單的風險。

Anthropic 執行長拒絕五角大廈最後通牒:堅持 AI 安全紅線

硬碰硬:Dario Amodei 的道德抉擇

AI 獨角獸 Anthropic 與美國國防部(Pentagon)之間的緊張關係今日達到頂點。Anthropic 執行長 Dario Amodei 正式拒絕了五角大廈要求取消其 AI 模型安全防護(Safeguards)的最後通牒。國防部此前要求 Anthropic 提供其系統的無限制存取權,以利於開發潛在的殺傷性自主武器(Lethal Autonomous Weapons),但遭到了 Anthropic 的斷然拒絕。

根據 TechCrunch (2026) 報導,Amodei 在一份公開聲明中表示:「我們無法在良知的驅使下同意這些條款。」他強調,Anthropic 的核心宗旨是開發安全且受控的人工智慧,這與國防部希望繞過安全機制的要求背道而馳。

五角大廈的威脅:列入「供應鏈黑名單」

美國國防部長 Pete Hegseth 此前曾發出嚴厲警告,威脅若 Anthropic 不配合,將會把該公司從國防部及其合作夥伴的供應鏈中移除。這意味著 Anthropic 可能失去數十億美元的政府標案,並面臨國家安全審查。

BBC Tech (2026) 指出,五角大廈目前正推動 AI 技術與軍事硬體的深度整合,而 Anthropic 堅持的「憲法 AI」(Constitutional AI)架構被軍方視為絆腳石。軍方官員認為,過多的安全限制會影響 AI 在戰場上的反應速度和決策能力。

法律與倫理的拉鋸戰

這場爭端的核心在於 2020 年確立的「AI 倫理原則」與當前地緣政治下的軍事需求衝突。根據法律背景分析,五角大廈正引用聯邦收購法規(DFARS)中的國家安全條款來施壓。然而,Anthropic 主張這違反了關於「安全、可靠與可信賴 AI」的第 14110 號行政命令的精神。

未來展望:矽谷與華府的裂痕加深

Anthropic 的強硬立場使其成為矽谷對抗 AI 軍事化的指標。如果五角大廈真的執行黑名單政策,這將迫使 Anthropic 尋找非軍事領域的合作對象,同時也可能導致其他 AI 公司面臨同樣的壓力測試。這場僵局將決定未來十年 AI 發展的倫理基調:究竟是安全優先,還是軍事效能優先?

常見問題

Anthropic 為什麼拒絕國防部的要求?

執行長 Dario Amodei 認為國防部要求取消安全防護以開發殺傷性武器違反了公司的倫理準則,無法在良知驅使下同意。

五角大廈的最後通牒內容是什麼?

要求 Anthropic 提供其 AI 系統的無限制存取權,並移除防止 AI 參與致命行動的安全憲法(Constitutional AI)。

如果不配合,Anthropic 會面臨什麼後果?

國防部長威脅將該公司從政府供應鏈中移除,使其失去政府標案並面臨更嚴格的國安審查。

📖 參考來源