跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
焦點追蹤

安全紅線成導火線:美國國防部將 Anthropic 列為「國家安全供應鏈風險」

美國國防部將 Anthropic 列為國家安全風險,理由是該公司的 AI 安全準則可能導致其在戰爭期間單方面禁用技術。這場衝突揭示了 AI 倫理倡導者與國防部隊之間對於「控制權」的根本矛盾,並可能影響未來數十億美元的軍事 AI 採購方向。

Kenji
Kenji
· 2 分鐘閱讀
更新於 2026年3月19日
A conceptual digital illustration of a heavy industrial padlock with an integrated glowing circuit b

⚡ TL;DR

因擔心 AI 在戰時被廠商自動禁用,五角大廈將 Anthropic 列為國家安全供應鏈風險名單。

背景:安全對齊與軍事需求的正面對撞

2026 年 3 月,美國國防部(DOD)正式將知名人工智慧企業 Anthropic 列入「國家安全供應鏈風險」名單。這一決定震驚了矽谷,也標誌著民用 AI 安全政策與軍事應用需求之間的矛盾達到了不可調和的地點。Anthropic 作為 AI 安全領域的領軍者,一直強調其模型的「安全紅線(Safety Red Lines)」,旨在防止 AI 被用於危險目的。然而,五角大廈認為,這些紅線可能在關鍵戰鬥行動中導致 AI 系統被開發者單方面禁用,從而威脅部隊安全。

五角大廈的擔憂:無法掌控的「安全開關」

根據 TechCrunch 的報導,國防部官員在最近的說明會中指出,Anthropic 對其技術保留了過高的控制權。具體而言,五角大廈擔心在「作戰行動(Warfighting Operations)」期間,Anthropic 可能會因為模型觸發了內部的安全準則而試圖禁用技術。對於軍方而言,一個在戰場上可能突然「罷工」或無法提供關鍵情報支持的 AI 系統,本身就是一種極大的安全威脅。國防部將此定性為不可接受的供應鏈風險,這意味著 Anthropic 及其技術可能被排除在多項軍事採購合同之外。

法律背景與政策框架

法律分析指出,此次認定可能引用了 2019 年《國防授權法案》(NDAA)第 889 條關於電信與安全設備的限制條款,並結合了聯邦採購法規(FAR)52.204-24/25 的實施細則。此外,美國總統簽署的第 14110 號行政命令中關於 AI 安全與國家安全的規定,也為國防部的行動提供了政策依據。這開創了一個先例:企業的「安全對齊(Safety Alignment)」政策若與國方的「技術可靠性(Reliability)」要求衝突,將被視為敵對因素。

社會反應與專家分析

在社交媒體與專業論壇上,此決定引發了激烈討論。支持 Anthropic 的專家認為,AI 安全紅線是防止技術被惡意濫用的必要防護措施,國防部的壓力可能迫使 AI 公司降低安全標準。然而,軍事技術分析師則反駁,國家安全需要的是絕對的可控性與確定性,任何具備「後門」或單方面禁用權限的軟體都不應出現在國防體系中。根據 Wired 的報導,這場爭論反映了「AI 安全」與「戰爭機器」之間本質上的格格不入。

未來展望:AI 企業的艱難抉擇

對於 Anthropic 而言,這是一個巨大的挑戰。一方面,維持其作為「負責任 AI」引領者的品牌形象需要堅持安全原則;另一方面,失去國防部這個超級客戶及其相關的政府市場,將對公司的長期增長產生負面影響。目前,五角大廈正在尋求建立更為安全的、專門用於訓練機密數據的生成式 AI 環境。未來的 AI 巨頭可能被迫在「純民用安全版」與「國防特製版」模型之間做出取捨,這將進一步加速 AI 技術在政治與軍事維度上的分裂。

常見問題

國防部為什麼認為 Anthropic 的安全性是風險?

國防部擔心 Anthropic 的「安全紅線」系統會讓該公司有能力在作戰期間遠端關閉 AI,這種「不可控性」對軍方而言是致命的供應鏈風險。

這會對 Anthropic 的業務造成什麼影響?

這意味著該公司將極難獲得美國政府及國防部的採購合同,且可能面臨更嚴格的合規審查,甚至影響到與其他北約盟國的商業往來。

這是否意味著軍用 AI 不會有安全限制?

並非如此。軍方依然重視安全,但他們要求的是由軍方控制的「安全性」,而非由私人公司隨時可以觸發的「道德斷路器」。