矽谷 AI 巨頭的國防分水嶺
人工智慧產業與美國國防部(DoD)的關係在 2026 年 3 月迎來了歷史性的轉折點。根據 TechCrunch 與 The Verge 的綜合報導,頂尖 AI 研究實驗室 Anthropic 與五角大廈之間一項價值 2 億美元的合約談判宣告正式破裂。隨後,五角大廈採取了極為罕見的行動,正式將 Anthropic 標記為「供應鏈風險(Supply-Chain Risk)」。這項標記意味著 Anthropic 未來可能被排除在所有美國政府合約之外,這對一家標榜 AI 安全與負責任發展的公司而言,無疑是沉重的打擊。
談判破裂的核心:控制權與監控爭議
雙方合作告吹的主因在於五角大廈要求對 Claude 模型擁有「無限制的控制權」。根據內部消息透露,國防部希望將這些模型直接整合進自動化武器系統與大規模國內監視框架中。Anthropic 堅持其模型不應被用於殺傷性武器或違反公民隱私的監控任務,這種立場最終導致雙方不歡而散。法律專家分析,此項「供應鏈風險」認定可能依據《聯邦收購供應鏈安全法案》(FASCSA),這賦予了政府排斥特定供應商的權力,而 Anthropic 目前正計畫透過《行政程序法》(APA)對此提出法律訴訟。
OpenAI 的現實主義轉向與內部動盪
與 Anthropic 的堅守立場形成鮮明對比的是,OpenAI 選擇了與五角大廈合作。這項決策迅速在 OpenAI 內部引發劇烈震盪。2026 年 3 月 7 日,OpenAI 機器人團隊負責人 Caitlin Kalinowski 正式辭職,以抗議公司與國防部達成的爭議性協議。根據 TechCrunch 的報導,Kalinowski 的離職並非孤例,隨著 OpenAI 逐步解除對軍事用途的禁令,該公司面臨著創立以來最嚴重的道德危機。數據顯示,在宣佈軍事合約後,ChatGPT 的解除安裝率在短時間內飆升了 295%,反映出公眾對於 AI 軍事化的強烈不安。
產業衝擊與市場數據分析
根據 Google Trends 的數據,此話題在加州的搜尋熱度高達 85,而在華盛頓特區則達到 92,顯示出科技重鎮與政治中心對此高度關注。市場分析師指出,這標誌著「AI 主權」時代的來臨,政府開始強制私人科技公司在國防利益與企業倫理之間做出選擇。目前,Microsoft 與 Google 均發表聲明,強調其託管的 Anthropic Claude 模型仍會對非國防客戶開放,試圖穩定企業用戶的信心。
未來展望:AI 監管的寒冬?
這場決裂預示著 AI 監管將進入一個更加嚴苛且政治化的階段。隨著五角大廈轉向更願意配合的合作夥伴,AI 安全的標準可能會由「倫理驅動」轉向「軍事驅動」。產業觀察家正密切關注 Anthropic 的後續訴訟,這將成為私人科技公司反抗政府「雙用途(dual-use)」監管的重要判例。

