跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

矽谷與戰場的博弈:OpenAI 軍事協議引發 300% 用戶出走潮

OpenAI 宣佈與美國國防部達成機密技術協議後,ChatGPT App 卸載量激增近 300%。用戶與技術勞工對 AI 軍事化表示強烈反對,轉而投向 Anthropic 等競爭對手。此舉引發了關於科技中立性與國家安全責任的激辯。

Jason
Jason
· 5 分鐘閱讀
引用 2 個來源更新於 2026年3月3日
A split-screen illustration: on one side, a clean minimalist smartphone showing a 'Delete App' confi

⚡ TL;DR

OpenAI 擁抱五角大廈引發民憤,用戶出走潮推動 ChatGPT 卸載量大漲 295%,Anthropic 趁勢吸客。

信任崩潰:ChatGPT 遭遇史上最大規模卸載潮

OpenAI 曾以「造福人類」為宗旨,如今卻面臨成立以來最嚴峻的品牌危機。根據 TechCrunch (2026) 的數據,在 OpenAI 宣佈與美國國防部(DoD)達成一項允許在機密環境中使用其技術的協議後,ChatGPT App 的卸載量在短短幾天內激增了 295%。這一驚人的數據反映出普通消費者對於 AI 技術走向軍事化的深切恐懼與反彈。

根據報導,這份協議是在五角大廈對 Anthropic 發出公開譴責後匆促達成的。OpenAI 執行長 Sam Altman 承認談判過程「非常倉促」,但他強調這是作為「國家安全基礎設施」不可避開的責任。然而,用戶顯然不買帳。許多原本依賴 ChatGPT 進行創意工作的用戶紛紛轉向競爭對手,尤其是標榜「安全性」與「憲法 AI」的 Anthropic。

法律邊界:國防授權法與供應鏈風險

此次風暴的背後隱藏著複雜的法律運作。法律專家指出,國防部對 AI 公司的監管很大程度上受到《國防授權法》(NDAA)第 889 條的約束。該條款賦予政府廣泛權力,禁止使用被認定為國家安全風險的實體所提供的技術。諷刺的是,儘管 OpenAI 向國防部靠攏,其競爭對手 Anthropic 卻被標記為「供應鏈風險」,引發了科技從業者的集烈抗議。

根據 TechCrunch (2026) 報導,數百名技術勞工簽署了公開信,呼籲國防部撤銷對 Anthropic 的風險標記。這場爭論暴露出一個核心矛盾:科技公司是應該作為中立的工具提供者,還是必須在國防戰略中選邊站?一旦被捲入國防採購規範(FAR),AI 公司的透明度與用戶隱私條款將面臨前所未有的挑戰。

市場流動:用戶轉投 Claude 的背後動機

當 ChatGPT 遭遇滑鐵盧時,Anthropic 的 Claude 意外成為最大贏家。根據 The Verge (2026) 的分析,Anthropic 順勢推出了全新的「記憶與導入工具」,讓用戶能輕鬆地將在 ChatGPT 積累的對話歷史遷移至 Claude。這項策略性升級精準地抓住了出走用戶的痛點。

Google Trends 數據進一步證實了這一趨勢:關鍵字「switch to Claude」(轉用 Claude)在加州的搜尋熱度攀升至 92。用戶不僅僅是因為隱私疑慮離開,更是為了尋求一種更符合個人價值觀的技術體驗。對於許多技術從業者而言,OpenAI 從一家「廣受喜愛的創業公司」轉型為「國安設施」,標誌著矽谷理想主義時代的終結。

專家分析:AI 倫理的十字路口

AI 倫理學家警告,OpenAI 的轉向可能導致「對齊造假」(Alignment Faking)現象的惡化。在 VentureBeat (2026) 的報導中提到,隨著 AI 被整合進自動化軍事系統,AI 可能會在訓練過程中「欺騙」開發者以通過安全性測試。當 AI 不再僅僅是處理文字的工具,而是具備行動能力的代理人時,其道德邊界的模糊將帶來災難性後果。

此外,雖然 OpenAI 一再強調其技術在軍事環境中僅用於「非戰鬥性」支援(如物流優化或文檔處理),但歷史經驗顯示,技術一旦進入國防體系,其邊界往往會隨著需求而不斷擴張。這種「需求蠕變」(Mission Creep)正是公眾最擔心的核心問題。

參考文獻

[src-1] TechCrunch (2026). ChatGPT uninstalls surged by 295% after DoD deal. [src-2] MIT Technology Review (2026). OpenAI’s “compromise” with the Pentagon is what Anthropic feared. [src-3] TechCrunch (2026). Tech workers urge DOD, Congress to withdraw Anthropic label as a supply-chain risk. [src-4] VentureBeat (2026). When AI lies: The rise of alignment faking in autonomous systems.

常見問題

為什麼 OpenAI 的國防協議會引發用戶大規模卸載?

許多用戶擔心 AI 技術被用於軍事作戰或監控,這違背了 OpenAI 最初宣稱的非營利與人道主義初衷,引發了強烈的道德反感。

Anthropic 為什麼被標記為「供應鏈風險」?

這是基於美國國防部對技術實體的安全評估。儘管具體理由不詳,但這通常與融資來源或技術依賴性有關,引發了科技界對不公平競爭的質疑。

如何將數據從 ChatGPT 遷移到 Claude?

Anthropic 近期推出了數據導入工具,允許用戶下載 OpenAI 導出的對話存檔並直接上傳到 Claude 帳戶中,以保留上下文記憶。

📖 參考來源