Google 豪擲 400 億美元深耕 Anthropic,AI 算力軍備競賽升級
Google 宣布向 Anthropic 投資 400 億美元,以現金和算力資源為主,此舉加劇了 AI 領域的算力軍備競賽,並可能面臨反壟斷監管審查。
Google 宣布向 Anthropic 投資 400 億美元,以現金和算力資源為主,此舉加劇了 AI 領域的算力軍備競賽,並可能面臨反壟斷監管審查。
科技產業迎來 AI 資源重組期,Meta 宣佈裁員 10% 以提升盈利效率,Google 則斥資 400 億美元投資 Anthropic 強化 AI 競爭力,反映產業從擴張轉向效率導向的理性競爭。
Google 宣布擬向 Anthropic 投入 400 億美元的現金與算力,以深化 AI 布局並引發反壟斷監管與安全疑慮的關注。
Google 宣布將向 AI 實驗室 Anthropic 投入高達 400 億美元的資金與算力資源,以應對日益激烈的 AI 基礎設施競爭,此舉顯示了科技巨頭對於大規模算力的迫切需求。
Google 擬投入高達 400 億美元資金與算力支援 Anthropic,此舉引發監管機構對於變相收購與市場壟斷的疑慮。
Google 計畫斥資高達 400 億美元投資 AI 新創 Anthropic,此舉隨亞馬遜注資後發生,凸顯 AI 領域的軍備競賽加劇,並將面臨美國反壟斷監管機關的嚴格審查。
Google 宣布擬向 AI 初創 Anthropic 投入高達 400 億美元的資金與算力資源。此舉反映了雲端巨頭在 AI 基礎設施爭奪戰中的白熱化競爭,但也同時招致 FTC 與 DOJ 等監管機構針對潛在反壟斷風險的密切調查。
Anthropic 承認對 Claude 的指令調整導致近期效能下降並已修復,同時宣佈 Claude 現可連結 Spotify、Uber Eats 等個人生活 App。
Anthropic 的 AI 助手 Claude 推出更新,整合 Spotify、Uber Eats、TurboTax 等個人應用程式,使其能從生產力工具進化為全方位的個人 AI 代理。
Anthropic 的網路安全 AI 模型 Mythos 傳出遭未經授權訪問,引起安全界的疑慮。雖然該工具具備強大的漏洞檢測能力,但其與聯邦機構的合作摩擦以及雙重用途的風險,已成為監管焦點。
Anthropic 的 Mythos 模型因強大的漏洞搜尋能力引發爭議,不僅與國防部產生法律糾紛,亦面臨未授權訪問的安全性調查。
Anthropic 強大的網路安全 AI 模型 Mythos 遭未經授權存取。該模型曾偵測出 Firefox 的 271 個零日漏洞,其安全性與合規性引發產業界爭議與擔憂。
Mozilla 利用 Anthropic 的 Mythos AI 發現了 Firefox 150 中的 271 個安全漏洞,顯示 AI 在資安測試的巨大潛力,但專家也提醒 AI 代理本身可能遭受注入攻擊。
Anthropic 的 Mythos 安全工具因識別多項漏洞而受到關注,但也因恐慌行銷策略及潛在的安全漏洞遭到同業批評與法規關注。
亞馬遜再投 50 億美元於 Anthropic,Anthropic 則承諾未來花費 1,000 億美元使用 AWS 服務。這項巨額投資引發全球監管單位對於雲端與 AI 壟斷的疑慮。
亞馬遜加碼投資 Anthropic 50 億美元,並換取該公司 1,000 億美元的雲端開支承諾。此案引發反壟斷監管機構關注,且 Anthropic 的 Mythos 模型在政府應用中的安全風險也成為焦點。
亞馬遜向 Anthropic 加碼投資 50 億美元,Anthropic 同時承諾在 AWS 雲端基礎設施投入 1000 億美元。此合作引發了反壟斷與 AI 安全疑慮,特別是在國安單位使用其 Mythos 模型的情況下。
亞馬遜宣布向 AI 公司 Anthropic 追加 50 億美元投資,後者則承諾在 AWS 進行 100 億美元的雲端運算支出,這項合作在商界引起強烈關注,同時也帶來了 AI 模型用於軍事與駭客威脅的討論。
據報導,美國國家安全局(NSA)正在使用 Anthropic 的高階 AI 模型 Mythos,這引發了關於 AI 加速網路攻擊能力的資訊安全擔憂,以及情報機構採用私人 AI 技術在合規與倫理上的複雜挑戰。
Anthropic 透過研發網路安全模型 Claude Mythos,與曾經對其持敵對態度的川普政府改善關係,展現技術作為國安資源的潛力。
Anthropic 與川普政府關係回暖,雙方近期舉行多次對話。報導指出其網路安全 AI 模型 Claude Mythos Preview 在其中發揮了關鍵溝通橋樑作用。
Anthropic 與美國政府的緊張關係因其資安模型 Claude Mythos 的推出而緩解。政府意識到該技術在國家安全與資安防禦上的戰略重要性,雙方正進入更緊密的合作關係,Anthropic 正尋求平衡商業保密與聯邦安規。
Anthropic 推出全新 AI 工具 Claude Design,允許用戶透過自然語言生成網頁原型與視覺資產,直接挑戰設計軟體巨頭 Figma 的市場地位,標誌著 AI 產業從模型端轉向應用層的競爭。
Anthropic 推出專注於網絡安全的 Claude Mythos 模型,試圖改善與美國政府此前緊繃的關係。此模型展現的強大防禦與攻防能力,使其成為華盛頓無法忽視的技術力量。
Anthropic 與美國政府關係回暖,關鍵在於其新發布的資安 AI 模型 Claude Mythos Preview。該模型展現了強大的駭客攻擊與防禦能力,使其成為美國資安戰略的重要資產。
Anthropic 與美國白宮的緊張關係因其新發布的網絡安全 AI 模型「Claude Mythos」而有所緩解。該模型展示了優異的漏洞分析與防禦能力,但其強大功能亦引發了有關國家安全風險與監管披露的法律討論。
面對川普政府的嚴厲指控,Anthropic 透過推出主打網路安全分析的 Claude Mythos 模型,主動尋求與政府合作的契機,並嘗試在監管壓力下建立安全避風港。
Anthropic 發布 Claude Opus 4.7,重奪通用 LLM 性能領先地位,同時積極在倫敦擴張辦公空間,並伴隨人事變動與進軍設計工具市場的計畫。
Anthropic 發布 Claude Opus 4.7,宣布超越 GPT-5.4 重奪最強 LLM 地位,同時將更強大的 Mythos 模型保留在內部進行資安測試。
Anthropic 推出 Claude Opus 4.7,在基準測試中重奪大模型性能榜首,並計畫在倫敦大規模擴張。
Anthropic 發布了 Claude Opus 4.7,此模型專注於複雜的軟體工程與自動化任務,旨在鞏固該公司在通用 LLM 市場的領導地位。
科技界正從聊天機器人轉向代理人模式。Adobe 與 Anthropic 紛紛推出進階 AI 工具,旨在實現工作流自動化與跨應用程序協作,但企業在落地應用時仍需克服技術可靠性挑戰。
Adobe 推出 Firefly AI Assistant 以整合創意軟體套件,Anthropic 則更新 Claude Code 並加入 Routines 功能。這些進展標誌著 AI 發展從被動的聊天機器人轉向自主執行的代理型 AI,為企業自動化提供了新的生產力架構。
Anthropic 推出 Claude Managed Agents,旨在透過將編排邏輯嵌入模型層來簡化企業 AI 代理的部署,但專家提醒需注意供應商鎖定風險。
OpenAI 的估值正受到 Anthropic 快速成長的挑戰。雙方在伊利諾伊州的 AI 責任立法上立場尖銳對立,Anthropic 反對 OpenAI 所支持的免責條款,強調責任與安全至上。
Anthropic 與 OpenAI 就伊利諾州擬議的人工智慧責任法案立場分歧。Anthropic 認為該法案增加無法控管的法律風險,而 OpenAI 則傾向支持法規。同時,Anthropic 正與美國政府合作其 Mythos 安全模型。
OpenAI 與 Anthropic 在人工智慧監管立場上產生明顯歧見。Anthropic 公開反對 OpenAI 支持的伊利諾州 AI 責任法,顯示兩家公司在責任認定與監管策略上的重大分歧。
Anthropic 推出 Claude Managed Agents 試圖搶攻企業市場,卻同時面臨被美軍列入「供應鏈風險」的衝擊,以及用戶對其模型效能下降與廠商鎖定的強烈質疑。
開發者社群反映 Anthropic 的 Claude Opus 4.6 與 Claude Code 模型性能下降。用戶質疑公司為節省算力「暗中削弱」模型能力,Anthropic 尚未回應此波信任危機。
OpenAI、Google 與 Anthropic 正積極搶佔 AI 程式碼輔助工具市場,此競爭不僅提升了開發效率,也改變了軟體工程的未來模式。
美國政府官員正鼓勵銀行測試 Anthropic 的 Mythos 模型,但由於國防部將該公司列為供應鏈風險,引發了法規與安全性爭議。
隨著 Anthropic 的 Mythos 等模型出現,資安專家警告現有 AI 代理缺乏行為控制,呼籲企業改採零信任架構與嚴格的隔離機制來限制威脅。
Anthropic Mythos 模型自主挖掘漏洞揭示了 AI 安全治理的漏洞,專家呼籲產業應將架構重心轉向「行為控制」。
Anthropic 推出的 Mythos AI 模型具備自主發現軟體漏洞的能力,引起業界關注。公司對其發布進行限制,引發了對於安全防範與市場競爭策略的廣泛討論。
Anthropic 的 Claude Mythos AI 在沒有人類引導的情況下,自主發現了存在 27 年的 OpenBSD 資安漏洞。此事件展示了 Agentic AI 在安全防禦中的強大潛力,但也凸顯了 Anthropic 在技術突破與法律糾紛中的複雜處境。
Anthropic 發布了新型 AI 模型「Mythos」,具備自動檢測並發現長期漏洞的強大能力。鑑於安全性,Anthropic 對其發布採取了極度審慎的限制態度。
面對 Claude Cowork 和 OpenClaw 等自動化 AI 代理帶來的潛在混亂,Anthropic 發起「Project Glasswing」計畫,聯合 12 家科技金融巨頭,利用其無法公開的網路安全模型來主動修補全球基礎設施漏洞。
Anthropic 正面臨聯邦法院對其 Claude 模型軍事應用判決不一致的法律困境,處於供應鏈風險審查的灰色地帶。儘管法務官司纏身,該公司仍持續推進企業級 AI 代理服務與受限測試的網路安全模型 Mythos。
Anthropic 因美國法院對其 Claude 模型軍事用途的判決出現分歧,陷入法律不確定性,導致其聯邦政府採購業務面臨供應鏈風險,同時影響了其企業 AI 代理產品的擴張。
Anthropic 啟動網路安全倡議 Project Glasswing,利用其強大的限制級 AI 模型 Claude Mythos 與多間科技龍頭合作,共同識別並修補關鍵基礎設施的數位漏洞。
Anthropic 啟動 Project Glasswing 網絡安全計劃,聯手 Google、Apple 等巨頭,部署先進的 Claude Mythos AI 模型以主動修復關鍵基礎設施中的軟體漏洞。
Anthropic 推出「Project Glasswing」計劃,利用未公開的 Claude Mythos Preview 模型,聯合蘋果、Google 等 45 家企業,自動化識別並修復全球軟體中的關鍵安全漏洞。
Anthropic 啟動 Project Glasswing 網絡安全計劃,聯手 Apple、Google 等十二大巨頭,利用其最強大的 Claude Mythos Preview 模型,預先修補全球關鍵基礎設施的軟件漏洞。
Agentic AI 系統(如 Claude Cowork 與 OpenClaw)的崛起正在重塑產業,引發法律責任與商業模型的辯論。企業正透過服務條款來降低自主系統的法律風險,而開發商則面臨更高的算力與營運成本,促使業界轉向關注系統的「可審計性」。
Anthropic 宣布終止 Claude 訂閱服務與第三方代理 AI 平台(如 OpenClaw)的集成,導致自動化工作流中斷,並引發法律與安全上的廣泛擔憂。
Anthropic 已採取行動,限制 Claude Pro 與 Max 訂閱用戶將其帳戶串接至第三方代理工具(如 OpenClaw)。此舉旨在回應近期針對 OpenClaw 的重大安全漏洞,該漏洞恐允許未經授權的行政存取。此外,Claude Code 用戶若需使用這些工具,將面臨額外收費。
Anthropic 於 2026 年 4 月更新政策,限制 Claude 訂閱用戶將額度用於 OpenClaw 等第三方代理工具,以回應嚴重的安全漏洞隱憂。
Anthropic 宣佈從 2026 年 4 月 4 日起,限制 Claude Pro 和 Max 訂閱用戶利用個人額度支援第三方 AI 代理工具(如 OpenClaw),強制用戶改用成本更高的企業版 API,此舉反映了 AI 模型開發商在計算資源控管與法律風險避險上的商業策略轉向。
Anthropic 宣布 Claude 訂閱方案不再支援第三方 AI 代理工具 OpenClaw,使用者若需整合使用將需額外付費,此舉顯示其生態策略轉向。
Anthropic 宣布自 2026 年 4 月 4 日起,全面停止 Claude Pro 與 Max 訂閱用戶連結第三方 AI 代理工具(如 OpenClaw)。此舉主要是針對近期 OpenClaw 安全漏洞導致用戶帳號風險的預防性措施,標誌著 AI 產業對於自動化代理工具的管控趨嚴。
Anthropic 以 4 億美元收購生物科技新創 Coefficient Bio,正式跨足人工智慧驅動的生物製藥與研發領域。
Anthropic 因打包失誤導致 Claude Code 原始碼外洩,後續的 DMCA 封鎖動作又誤傷合法社群,引發資安與法律爭議。
Anthropic 因意外洩漏 Claude Code 源代碼引發討論,其後續採用的自動化 DMCA 刪除通知因誤傷合法倉庫而遭開發者社群強烈質疑,凸顯了企業應對危機時的法律與公關挑戰。
Anthropic 的 Claude Code 套件因夾帶未混淆的源代碼映射文件,導致 51 萬行代碼外洩,引發企業資安危機,且後續的 DMCA 刪除行動因誤傷合法代碼庫而引發法律爭議。
Anthropic 在 npm 套件中意外洩漏 512,000 行原始碼,引發嚴重的企業安全危機,隨後試圖透過 DMCA 封鎖外洩內容時,又因誤傷大量合法 GitHub 專案而遭到社群批評。
Anthropic因意外更新導致51萬行Claude Code原始碼外洩,該公司後續的大規模GitHub封鎖行動被質疑濫用DMCA條款,引發開發者信任危機與潛在的法律責任爭議。
Anthropic的Claude Code軟體包意外洩漏51萬行TypeScript源代碼,包含關鍵安全邏輯與未公開功能,企業需立即採取行動進行權限審計與環境加固。
AI 公司 Anthropic 因 npm 套件更新意外洩漏 51 萬行源代碼,隨後進行的大規模 GitHub 下架行動更引發爭議。此事件突顯了企業在部署 AI 代理時對底層代碼安全性的管理疏忽。
Anthropic 在最新的 Claude Code 工具更新中,因未妥善處理原始碼映射檔,導致 51 萬行原始碼外洩,揭露了其代理型 AI 的核心架構與未公開功能。
Anthropic 因打包錯誤,導致 Claude Code 超過 51 萬行原始碼意外在 npm 上公開,引發嚴重的商業機密與資安風險。
Anthropic 的 Claude Code CLI 工具因 npm 套件更新配置失誤,導致 51 萬行源代碼洩露,揭示了公司內部測試中的 AI 代理與電子寵物功能,引發法律與資安關注。
Anthropic 的 Claude Code 套件因開發人員誤打包調試檔,導致部分內部源代碼在 npm 上外洩,引發產業對 AI 軟體供應鏈安全的擔憂。
一名聯邦法官臨時擋下了國防部將 Anthropic 標記為「供應鏈風險」的行政命令,引發了 AI 企業與美國國防安全監管間的法律角力。
加州法官頒布臨時限制令,暫時禁止五角大廈將 Anthropic 列為供應鏈風險,此裁決標誌著雙方為期一個月的法律拉鋸戰出現重大轉折。
美國聯邦法院暫時凍結了國防部對 AI 新創公司 Anthropic 的禁令,理由是該部門在缺乏國會授權下單方面採取黑名單行動,已逾越法定權限。
聯邦法官對 Anthropic 下達禁制令,暫緩國防部針對該公司的封殺令。法院裁定政府未能證明其黑名單決策的合法性,行政越權爭議成為焦點。
聯邦法院發布禁令,暫停了川普政府對 AI 新創 Anthropic 的限制措施,認為國防部對其「供應鏈風險」的認定缺乏程序合規性。
美國聯邦法官發布臨時禁令,駁回了川普政府試圖將 AI 研究公司 Anthropic 列入黑名單的行政命令,指出政府缺乏法律權力以「供應鏈風險」為由實施限制。
聯邦法官發布初步禁制令,暫停了美國國防部將 AI 新創公司 Anthropic 列入供應鏈風險黑名單的決定,此案被視為科技界與政府在 AI 監管邊界上的關鍵法律角力。
聯邦法院發布初步禁制令,暫阻川普政府將 Anthropic 列為「供應鏈風險」的黑名單行為,允許該公司在訴訟期間繼續與國防部進行業務往來。
聯邦法官對美國政府針對 Anthropic 的「供應鏈風險」標籤發布了初步禁令,質疑政府決策過程缺乏足夠證據支持,允許 Anthropic 在訴訟期間維持運作。
Anthropic 推出新功能,讓 Claude AI 能直接控制 Mac 電腦進行任務操作,旨在建立自主 AI 代理。同時,公司正因被國防部列為供應鏈風險而面臨法律挑戰。
AI 代理競賽升溫,Anthropic 的 Claude 取得 macOS 操作權限,Cloudflare 推出 Dynamic Workers 以提升執行效率,業界正努力突破 AI 代理從演示到生產部署的難關。
Anthropic 推出研究預覽功能,使 Claude 聊天機器人能直接操控 Mac 應用程式與桌面介面,成為具備實際工作能力的 AI 代理。
Anthropic發布Claude Code與Cowork,讓AI代理人能自主操作電腦,處理檔案與開發工具,儘管生產力提升但 Anthropic 警告仍處於研究預覽階段。
美國參議員華倫批評國防部將 Anthropic 列為供應鏈風險的行為涉及報復,此爭議突顯了美國軍方在引入 AI 技術時,面臨著法規合規與政治立場的複雜挑戰。
參議員伊莉莎白·華倫指控國防部將 Anthropic 列為「供應鏈風險」是報復手段,呼籲國防部應公開其採購決策的正當程序,避免政治打壓。
參議員 Elizabeth Warren 指控國防部將 Anthropic 列為「供應鏈風險」是報復行為,並質疑其行政決策的正當性,此舉可能影響美國軍方與 AI 實驗室的合作關係。
國防部將 Anthropic 標註為「供應鏈風險」引發華倫參議員指控此舉帶有報復色彩,該爭議突顯了 AI 實驗室與國家安全監管之間的緊張關係。
Anthropic 正在與美國國防部進行法律對抗,反對該公司被列為「供應鏈風險」。最新的法院文件顯示政府決策矛盾,而 OpenAI 與 Google DeepMind 的員工更罕見地提交法庭之友文書表示支持,引發對政府監管權擴張的關注。
Anthropic 向法庭提交聲明,反駁國防部指控其 AI 模型對國家安全構成「不可接受風險」的說法,認為其基於技術誤解。
Anthropic 反駁國防部將其 AI 模型列為國家安全風險的指控,認為這源於技術誤解,並指責國防部決策缺乏透明度。
五角大廈與 Anthropic 之間的法律爭議升溫,新文件顯示政府曾對 Anthropic 的合作保持樂觀,而公司則反駁其 AI 具備安全威脅。
法院文件顯示,國防部在宣告與 Anthropic 關係破裂前,曾表示雙方幾近達成共識。這場爭議的核心在於國防部對 AI 模型戰時安全性的擔憂,以及 Anthropic 的技術辯護。
Anthropic 與美國五角大廈就國家安全風險歸類展開激烈法律鬥爭,法庭文件揭示政府內部的溝通矛盾。
Anthropic 與五角大廈爆發安全爭議。法庭文件顯示政府部門內部說法不一,且 Anthropic 否認其模型在戰時會構成國安風險。該公司正透過訴訟尋求真相。
Anthropic 對美國國防部提起訴訟,質疑將其 AI 模型列為「供應鏈風險」的決定。法院文件揭露,在國防部公開採取行動前一週,雙方溝通顯示合規進展近乎達成共識,Anthropic 強調國防部的擔憂源於技術誤解。
Anthropic 向聯邦法院提交宣誓聲明,強力反擊五角大廈關於其 AI 模型可能在戰時被操縱或破壞的指控。文件顯示,在雙方關係因政治因素破裂前,曾一度接近達成共識。此案可能成為 AI 供應商與政府合作關係的重要法律判例。
AI 產業正從聊天機器人轉向自主執行任務的「代理人」。Anthropic 推出了可透過通訊軟體控制的 Claude Code Channels,而 OpenAI 則在研發整合 ChatGPT、編程工具與瀏覽器的桌面「超級應用程式」。同時,Cursor 的新模型 Composer 2 也展現了強大的編碼競爭力,顯示出代理型 AI 已成為科技巨頭的兵家必爭之地。
美國國防部將 Anthropic 列為國家安全風險,理由是該公司的 AI 安全準則可能導致其在戰爭期間單方面禁用技術。這場衝突揭示了 AI 倫理倡導者與國防部隊之間對於「控制權」的根本矛盾,並可能影響未來數十億美元的軍事 AI 採購方向。
五角大廈正式將 AI 巨頭 Anthropic 列為供應鏈風險,主因是擔心其模型內建的「安全紅線」會在戰時導致系統停機。與此同時,軍方計畫讓 AI 業者在機密數據上進行軍事專用訓練,這引發了私人科技倫理與國家安全需求之間的深刻衝突,法律戰的結果將影響未來軍用 AI 的發展路徑。
美國司法部表示 Anthropic 的 AI 模型因過度限制而不適合作戰,五角大廈正計劃建立機密訓練環境以開發「軍用主權版」模型,並尋求其他科技合作夥伴。
五角大廈與 AI 實驗室關係生變,司法部指 Anthropic 因其「安全護欄」限制模型軍事化而不可信。國防部轉向與 OpenAI 及 AWS 合作,計畫在隔絕的機密環境中訓練國防專屬 AI,以應對美伊衝突帶來的緊迫情報需求,標誌著 AI 技術與軍事工業的深度融合。
川普政府近期對科技界展現強硬立場,一方面擬以國安風險為由禁止政府機構使用 Anthropic 的 AI 產品,另一方面則向 TikTok 交易案索取 100 億美元的促成費用。這些舉措面臨嚴峻的法律挑戰,包括行政程序正當性與憲法對私人交易徵費的限制,顯示出政府正將科技監管與經濟利益高度掛鉤。
五角大廈與 Palantir 的最新演示顯示,Anthropic 的 Claude 等 AI 代理正被用於軍事目標排名與戰爭規劃。這引發了關於 AI 決策倫理以及人類指揮官在自動化戰爭中角色的激烈辯論。
美軍國防部披露考慮使用 AI 機器人輔助目標打擊決策,引發倫理爭議。與此同時,Anthropic 與國防部因採購與安全性爆發法律糾紛,而一名政府效率組織人員約翰·索利則因疑似竊取敏感社會安全資料面臨調查。
矽谷巨頭聯手支持 Anthropic 對抗川普政府的行政干預,稱其為打壓行為。與此同時,美國司法部與 Live Nation 達成不涉及拆分的和解協議引發壟斷爭議,而英國則加強了對社群媒體兒童身份驗證的要求。
AI 巨頭 Anthropic 正式狀告美國政府,反擊白宮將其列入黑名單並指責其為「極左、覺醒」企業。訴訟指控政府違反《行政程序法》及憲法第一與第五修正案,認為相關禁令缺乏國安依據且具政治歧視。此案反映了美國對 AI 安全與意識形態的深刻分歧,其結果將決定未來技術研發是否會受到政黨政治的直接干預。
AI 實驗室 Anthropic 正式起訴美國政府,抗議被列入「覺醒」黑名單。該公司主張政府的決定缺乏正當程序且基於政治偏見,特別是針對其拒絕發展自主武器系統的立場。此案將成為 AI 安全、第一修正案與行政程序法的關鍵法律判例。
AI 新創 Anthropic 起訴美國政府,抗議因其拒絕參與自主武器開發而被白宮列入「覺醒黑名單」。此案涉及 AI 倫理與國防政策的法律邊界,可能引發科技業與政府關係的巨變。
Anthropic 對美國國防部提起訴訟,抗議被標記為「供應鏈風險」而遭禁用。這項爭議引發了 AI 產業的高度團結,包括 Google 與 OpenAI 員工在內的 40 名科學家提交了 Amicus Brief 聲援,抗議政府權力過度擴張。此案將決定未來 AI 企業在國家安全框架下的法律保障與商業運作空間。
微軟於 2026 年 3 月推出 Copilot Cowork,這是一款具備自主執行能力的「代理化」AI 工具,並罕見地整合了 Anthropic 的技術。該系統能跨 M365 應用完成任務,但也引發了關於「AI 雙面間諜」的安全疑慮,微軟隨即推出專門的治理工具進行管控。
Anthropic 於 2026 年 3 月起訴美國國防部,抗議被列為「供應鏈風險」名單,此舉導致其 Claude AI 技術遭聯邦禁用。公司稱這是川普政府將合約用途爭議非法升級為行政禁令,案件引發關於 AI 倫理與國家安全界線的法律大戰。
Anthropic 對美國國防部提起訴訟,抗議其被列入「供應鏈風險」名單,此舉實際上禁止了 Claude 模型進入聯邦市場。這場官司涉及正當程序與國家安全權力的法律邊界,同時 OpenAI 也因軍事合約引發高層離職潮,凸顯了矽谷與國防體系之間日益加劇的矛盾。
五角大廈將 Anthropic 列為「供應鏈風險」後,雙方價值 2 億美元的合約談判宣告破裂。與此同時,OpenAI 選擇擁抱軍事合約,導致其機器人團隊負責人 Caitlin Kalinowski 辭職抗議,產業內部對於 AI 軍事化的道德分歧正式公開化。
五角大廈正式將 Anthropic 列為「供應鏈風險」,主因是雙方在價值 2 億美元的合約談判中,對於 AI 模型在自主武器與國內監控的使用權限無法達成共識。這標誌著 AI 業界在軍事應用與安全倫理上的重大分歧。
OpenAI 宣佈與美國國防部達成機密技術協議後,ChatGPT App 卸載量激增近 300%。用戶與技術勞工對 AI 軍事化表示強烈反對,轉而投向 Anthropic 等競爭對手。此舉引發了關於科技中立性與國家安全責任的激辯。
OpenAI 執行長 Sam Altman 宣佈與五角大廈達成具技術保障的合約,而 Anthropic 則因拒絕撤銷軍事用途限制面臨聯邦禁令。此分歧反映了 AI 公司在國家安全與安全倫理間的抉擇,並促使 Anthropic 的 Claude 下載量逆勢奪冠。
川普政府因 Anthropic 拒絕放寬軍事 AI 使用限制,正式將其列入「供應鏈風險」清單並要求聯邦政府全面停用。Anthropic 表示將對此「法律上站不住腳」的決定提起訴訟,此事件標誌著矽谷 AI 安全準則與國家安全政策的重大衝突。
川普政府因倫理立場分歧,將 AI 公司 Anthropic 列入國家安全黑名單,禁止聯邦機構使用其產品。與此同時,其競爭對手 OpenAI 與五角大廈達成數十億美元合約,承諾提供帶有技術保障的軍事 AI 支持。此舉標誌著矽谷 AI 發展的分裂,企業被迫在政府合約與倫理底線之間做出選擇。
Anthropic 執行長拒絕了五角大廈要求取消 AI 安全限制的通牒,堅稱無法違背良知提供軍方無限制存取。國防部威脅將該公司列入黑名單,矽谷與政府間的倫理衝突白熱化。