跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

AI 倫理之戰:Anthropic 與五角大廈決裂,OpenAI 轉向軍事合約引發高層出走

五角大廈將 Anthropic 列為「供應鏈風險」後,雙方價值 2 億美元的合約談判宣告破裂。與此同時,OpenAI 選擇擁抱軍事合約,導致其機器人團隊負責人 Caitlin Kalinowski 辭職抗議,產業內部對於 AI 軍事化的道德分歧正式公開化。

Jessy
Jessy
· 2 分鐘閱讀
更新於 2026年3月8日
A cinematic shot of a high-tech conference room split in half: one side glowing with clinical blue l

⚡ TL;DR

Anthropic 因拒絕提供軍事控制權被列入風險名單,而 OpenAI 因接受軍事合約面臨高層離職潮。

矽谷 AI 巨頭的國防分水嶺

人工智慧產業與美國國防部(DoD)的關係在 2026 年 3 月迎來了歷史性的轉折點。根據 TechCrunch 與 The Verge 的綜合報導,頂尖 AI 研究實驗室 Anthropic 與五角大廈之間一項價值 2 億美元的合約談判宣告正式破裂。隨後,五角大廈採取了極為罕見的行動,正式將 Anthropic 標記為「供應鏈風險(Supply-Chain Risk)」。這項標記意味著 Anthropic 未來可能被排除在所有美國政府合約之外,這對一家標榜 AI 安全與負責任發展的公司而言,無疑是沉重的打擊。

談判破裂的核心:控制權與監控爭議

雙方合作告吹的主因在於五角大廈要求對 Claude 模型擁有「無限制的控制權」。根據內部消息透露,國防部希望將這些模型直接整合進自動化武器系統與大規模國內監視框架中。Anthropic 堅持其模型不應被用於殺傷性武器或違反公民隱私的監控任務,這種立場最終導致雙方不歡而散。法律專家分析,此項「供應鏈風險」認定可能依據《聯邦收購供應鏈安全法案》(FASCSA),這賦予了政府排斥特定供應商的權力,而 Anthropic 目前正計畫透過《行政程序法》(APA)對此提出法律訴訟。

OpenAI 的現實主義轉向與內部動盪

與 Anthropic 的堅守立場形成鮮明對比的是,OpenAI 選擇了與五角大廈合作。這項決策迅速在 OpenAI 內部引發劇烈震盪。2026 年 3 月 7 日,OpenAI 機器人團隊負責人 Caitlin Kalinowski 正式辭職,以抗議公司與國防部達成的爭議性協議。根據 TechCrunch 的報導,Kalinowski 的離職並非孤例,隨著 OpenAI 逐步解除對軍事用途的禁令,該公司面臨著創立以來最嚴重的道德危機。數據顯示,在宣佈軍事合約後,ChatGPT 的解除安裝率在短時間內飆升了 295%,反映出公眾對於 AI 軍事化的強烈不安。

產業衝擊與市場數據分析

根據 Google Trends 的數據,此話題在加州的搜尋熱度高達 85,而在華盛頓特區則達到 92,顯示出科技重鎮與政治中心對此高度關注。市場分析師指出,這標誌著「AI 主權」時代的來臨,政府開始強制私人科技公司在國防利益與企業倫理之間做出選擇。目前,Microsoft 與 Google 均發表聲明,強調其託管的 Anthropic Claude 模型仍會對非國防客戶開放,試圖穩定企業用戶的信心。

未來展望:AI 監管的寒冬?

這場決裂預示著 AI 監管將進入一個更加嚴苛且政治化的階段。隨著五角大廈轉向更願意配合的合作夥伴,AI 安全的標準可能會由「倫理驅動」轉向「軍事驅動」。產業觀察家正密切關注 Anthropic 的後續訴訟,這將成為私人科技公司反抗政府「雙用途(dual-use)」監管的重要判例。

常見問題

為什麼 Anthropic 被標記為「供應鏈風險」?

因為雙方在合約談判中無法就模型控制權達成一致,五角大廈希望將其模型用於自動武器與監視,而 Anthropic 堅持安全倫理限制。

Caitlin Kalinowski 辭職的原因是什麼?

作為 OpenAI 的機器人負責人,她辭職是為了抗議 OpenAI 與美國國防部達成的新軍事協議,這違反了她對 AI 開發的原則。

這對一般用戶有什麼影響?

短期內對商業用戶影響不大,但標誌著 AI 技術可能走向更深度的軍事化,並可能引發公眾對隱私與安全的進一步擔憂。