背景:安全對齊與軍事需求的正面對撞
2026 年 3 月,美國國防部(DOD)正式將知名人工智慧企業 Anthropic 列入「國家安全供應鏈風險」名單。這一決定震驚了矽谷,也標誌著民用 AI 安全政策與軍事應用需求之間的矛盾達到了不可調和的地點。Anthropic 作為 AI 安全領域的領軍者,一直強調其模型的「安全紅線(Safety Red Lines)」,旨在防止 AI 被用於危險目的。然而,五角大廈認為,這些紅線可能在關鍵戰鬥行動中導致 AI 系統被開發者單方面禁用,從而威脅部隊安全。
五角大廈的擔憂:無法掌控的「安全開關」
根據 TechCrunch 的報導,國防部官員在最近的說明會中指出,Anthropic 對其技術保留了過高的控制權。具體而言,五角大廈擔心在「作戰行動(Warfighting Operations)」期間,Anthropic 可能會因為模型觸發了內部的安全準則而試圖禁用技術。對於軍方而言,一個在戰場上可能突然「罷工」或無法提供關鍵情報支持的 AI 系統,本身就是一種極大的安全威脅。國防部將此定性為不可接受的供應鏈風險,這意味著 Anthropic 及其技術可能被排除在多項軍事採購合同之外。
法律背景與政策框架
法律分析指出,此次認定可能引用了 2019 年《國防授權法案》(NDAA)第 889 條關於電信與安全設備的限制條款,並結合了聯邦採購法規(FAR)52.204-24/25 的實施細則。此外,美國總統簽署的第 14110 號行政命令中關於 AI 安全與國家安全的規定,也為國防部的行動提供了政策依據。這開創了一個先例:企業的「安全對齊(Safety Alignment)」政策若與國方的「技術可靠性(Reliability)」要求衝突,將被視為敵對因素。
社會反應與專家分析
在社交媒體與專業論壇上,此決定引發了激烈討論。支持 Anthropic 的專家認為,AI 安全紅線是防止技術被惡意濫用的必要防護措施,國防部的壓力可能迫使 AI 公司降低安全標準。然而,軍事技術分析師則反駁,國家安全需要的是絕對的可控性與確定性,任何具備「後門」或單方面禁用權限的軟體都不應出現在國防體系中。根據 Wired 的報導,這場爭論反映了「AI 安全」與「戰爭機器」之間本質上的格格不入。
未來展望:AI 企業的艱難抉擇
對於 Anthropic 而言,這是一個巨大的挑戰。一方面,維持其作為「負責任 AI」引領者的品牌形象需要堅持安全原則;另一方面,失去國防部這個超級客戶及其相關的政府市場,將對公司的長期增長產生負面影響。目前,五角大廈正在尋求建立更為安全的、專門用於訓練機密數據的生成式 AI 環境。未來的 AI 巨頭可能被迫在「純民用安全版」與「國防特製版」模型之間做出取捨,這將進一步加速 AI 技術在政治與軍事維度上的分裂。

