Anthropic 解決 Claude 效能下降問題,擴充個人化應用連結
Anthropic 承認對 Claude 的指令調整導致近期效能下降並已修復,同時宣佈 Claude 現可連結 Spotify、Uber Eats 等個人生活 App。
Anthropic 承認對 Claude 的指令調整導致近期效能下降並已修復,同時宣佈 Claude 現可連結 Spotify、Uber Eats 等個人生活 App。
Anthropic 的 AI 助手 Claude 推出更新,整合 Spotify、Uber Eats、TurboTax 等個人應用程式,使其能從生產力工具進化為全方位的個人 AI 代理。
Anthropic 發布 Claude Opus 4.7,宣布超越 GPT-5.4 重奪最強 LLM 地位,同時將更強大的 Mythos 模型保留在內部進行資安測試。
Anthropic 推出 Claude Opus 4.7,在基準測試中重奪大模型性能榜首,並計畫在倫敦大規模擴張。
Anthropic 發布了 Claude Opus 4.7,此模型專注於複雜的軟體工程與自動化任務,旨在鞏固該公司在通用 LLM 市場的領導地位。
Anthropic 推出 Claude Managed Agents,旨在透過將編排邏輯嵌入模型層來簡化企業 AI 代理的部署,但專家提醒需注意供應商鎖定風險。
Anthropic 推出 Claude Managed Agents 試圖搶攻企業市場,卻同時面臨被美軍列入「供應鏈風險」的衝擊,以及用戶對其模型效能下降與廠商鎖定的強烈質疑。
開發者社群反映 Anthropic 的 Claude Opus 4.6 與 Claude Code 模型性能下降。用戶質疑公司為節省算力「暗中削弱」模型能力,Anthropic 尚未回應此波信任危機。
Anthropic 正面臨聯邦法院對其 Claude 模型軍事應用判決不一致的法律困境,處於供應鏈風險審查的灰色地帶。儘管法務官司纏身,該公司仍持續推進企業級 AI 代理服務與受限測試的網路安全模型 Mythos。
Anthropic 因美國法院對其 Claude 模型軍事用途的判決出現分歧,陷入法律不確定性,導致其聯邦政府採購業務面臨供應鏈風險,同時影響了其企業 AI 代理產品的擴張。
Anthropic 啟動 Project Glasswing 網絡安全計劃,聯手 Google、Apple 等巨頭,部署先進的 Claude Mythos AI 模型以主動修復關鍵基礎設施中的軟體漏洞。
Anthropic 推出「Project Glasswing」計劃,利用未公開的 Claude Mythos Preview 模型,聯合蘋果、Google 等 45 家企業,自動化識別並修復全球軟體中的關鍵安全漏洞。
Anthropic 啟動 Project Glasswing 網絡安全計劃,聯手 Apple、Google 等十二大巨頭,利用其最強大的 Claude Mythos Preview 模型,預先修補全球關鍵基礎設施的軟件漏洞。
Agentic AI 系統(如 Claude Cowork 與 OpenClaw)的崛起正在重塑產業,引發法律責任與商業模型的辯論。企業正透過服務條款來降低自主系統的法律風險,而開發商則面臨更高的算力與營運成本,促使業界轉向關注系統的「可審計性」。
Anthropic 宣布終止 Claude 訂閱服務與第三方代理 AI 平台(如 OpenClaw)的集成,導致自動化工作流中斷,並引發法律與安全上的廣泛擔憂。
Anthropic 已採取行動,限制 Claude Pro 與 Max 訂閱用戶將其帳戶串接至第三方代理工具(如 OpenClaw)。此舉旨在回應近期針對 OpenClaw 的重大安全漏洞,該漏洞恐允許未經授權的行政存取。此外,Claude Code 用戶若需使用這些工具,將面臨額外收費。
Anthropic 於 2026 年 4 月更新政策,限制 Claude 訂閱用戶將額度用於 OpenClaw 等第三方代理工具,以回應嚴重的安全漏洞隱憂。
Anthropic 宣佈從 2026 年 4 月 4 日起,限制 Claude Pro 和 Max 訂閱用戶利用個人額度支援第三方 AI 代理工具(如 OpenClaw),強制用戶改用成本更高的企業版 API,此舉反映了 AI 模型開發商在計算資源控管與法律風險避險上的商業策略轉向。
Anthropic 宣布 Claude 訂閱方案不再支援第三方 AI 代理工具 OpenClaw,使用者若需整合使用將需額外付費,此舉顯示其生態策略轉向。
Anthropic 宣布自 2026 年 4 月 4 日起,全面停止 Claude Pro 與 Max 訂閱用戶連結第三方 AI 代理工具(如 OpenClaw)。此舉主要是針對近期 OpenClaw 安全漏洞導致用戶帳號風險的預防性措施,標誌著 AI 產業對於自動化代理工具的管控趨嚴。
Anthropic 在 npm 套件中意外洩漏 512,000 行原始碼,引發嚴重的企業安全危機,隨後試圖透過 DMCA 封鎖外洩內容時,又因誤傷大量合法 GitHub 專案而遭到社群批評。
Anthropic因意外更新導致51萬行Claude Code原始碼外洩,該公司後續的大規模GitHub封鎖行動被質疑濫用DMCA條款,引發開發者信任危機與潛在的法律責任爭議。
AI 公司 Anthropic 因 npm 套件更新意外洩漏 51 萬行源代碼,隨後進行的大規模 GitHub 下架行動更引發爭議。此事件突顯了企業在部署 AI 代理時對底層代碼安全性的管理疏忽。
Anthropic 的 Claude Code CLI 工具因 npm 套件更新配置失誤,導致 51 萬行源代碼洩露,揭示了公司內部測試中的 AI 代理與電子寵物功能,引發法律與資安關注。
Anthropic 推出新功能,讓 Claude AI 能直接控制 Mac 電腦進行任務操作,旨在建立自主 AI 代理。同時,公司正因被國防部列為供應鏈風險而面臨法律挑戰。
AI 代理競賽升溫,Anthropic 的 Claude 取得 macOS 操作權限,Cloudflare 推出 Dynamic Workers 以提升執行效率,業界正努力突破 AI 代理從演示到生產部署的難關。
Anthropic 推出研究預覽功能,使 Claude 聊天機器人能直接操控 Mac 應用程式與桌面介面,成為具備實際工作能力的 AI 代理。
Google 發表支援影音圖文全模態的 Gemini Embedding 2,而 Anthropic 則讓 Claude 具備跨 Excel 與 PowerPoint 的共享語境功能。同時,Zendesk 收購 Forethought,預示企業 AI 正從對話型轉向具備自主執行能力的代理型。
Anthropic 於 2026 年 3 月起訴美國國防部,抗議被列為「供應鏈風險」名單,此舉導致其 Claude AI 技術遭聯邦禁用。公司稱這是川普政府將合約用途爭議非法升級為行政禁令,案件引發關於 AI 倫理與國家安全界線的法律大戰。
Anthropic 對美國國防部提起訴訟,抗議其被列入「供應鏈風險」名單,此舉實際上禁止了 Claude 模型進入聯邦市場。這場官司涉及正當程序與國家安全權力的法律邊界,同時 OpenAI 也因軍事合約引發高層離職潮,凸顯了矽谷與國防體系之間日益加劇的矛盾。