跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

Anthropic 啟動 Project Glasswing,聯手科技巨頭構建網絡安全防線

Anthropic 推出「Project Glasswing」計劃,利用未公開的 Claude Mythos Preview 模型,聯合蘋果、Google 等 45 家企業,自動化識別並修復全球軟體中的關鍵安全漏洞。

Jason
Jason
· 2 分鐘閱讀
更新於 2026年4月8日
An abstract, high-tech cybersecurity concept art featuring glowing blue digital code streams weaving

⚡ TL;DR

Anthropic 攜手全球 45 家科技巨頭推出 Project Glasswing,利用強大 AI 模型主動防禦軟體漏洞。

網絡安全的 AI 新紀元

近日,人工智慧實驗室 Anthropic 宣佈推出「Project Glasswing」計劃,這是一項旨在應對全球關鍵基礎設施安全挑戰的旗艦級網絡安全倡議。透過將其未公開的 frontier AI 模型「Claude Mythos Preview」與包括蘋果、Google、亞馬遜網路服務 (AWS) 以及摩根大通在內的超過 45 家頂尖科技與金融機構結盟,Anthropic 試圖在惡意攻擊者發動攻擊前,自動化識別並修復全球核心系統中的軟體漏洞。

技術突破:從人工檢查到自動探測

傳統的軟體漏洞修復往往依賴於大量人力進行代碼審查與測試。然而,隨著系統複雜度呈現指數級增長,這種模式已顯得捉襟見肘。根據 VentureBeat 的報導,Project Glasswing 的核心理念在於利用 Claude Mythos Preview 的超強推理與代碼分析能力,實現對作業系統與瀏覽器中潛在漏洞的深度挖掘。初步測試顯示,該模型已在多個主流 OS 及瀏覽器中識別出安全隱憂,展現出其在防禦端的高效潛力。

產業聯動與合規挑戰

此項目彙集了行業內的多方競爭者,這種強強聯手的模式在網絡安全領域相當罕見。分析人士指出,這一合作不僅是為了提升安全性,更是為了建立一種全新的「主動防禦」行業標準。然而,法律專家同時提醒,將自治型 AI 模型部署於實時商業系統中,涉及複雜的法律邊界。根據歐盟 AI 法案(EU AI Act)及美國相關法律,如何劃定自動化漏洞探測的合法範圍,並在「協調漏洞披露」(CVD)機制下履行企業責任,將成為此類計劃必須嚴謹處理的法律課題。若操作超出授權範圍,恐面臨觸犯《電腦欺詐與濫用法案》(CFAA)的潛在風險。

未來展望與影響力

儘管相關技術細節仍保持謹慎披露,但 Glasswing 的出現標誌著 AI 正從內容創作轉向底層設施保護的關鍵轉折。隨著 Claude Mythos Preview 的持續演進,這類防禦型 AI 將可能成為未來企業 IT 架構中不可或缺的安全基石。前沿日報將持續關注該計劃的實施進度及其對 global cybersecurity 生態系統的深遠影響。

常見問題解答

為何 Anthropic 不公開 Claude Mythos Preview?

Anthropic 表示該模型在網絡安全方面的強大能力具有潛在的雙刃劍性質,若不加限制地對外發佈,極可能被惡意行為者用作大規模攻擊工具,因此該模型目前僅限於特定安全合作項目中使用。

Project Glasswing 與現有的漏洞掃描工具相比有何不同?

傳統工具通常基於已知的簽名庫進行匹配,而 Claude Mythos Preview 運用 frontier AI 的語義理解與邏輯推理能力,能夠發現隱藏在系統架構中的零日漏洞(Zero-day vulnerabilities),實現主動式預防。

企業如何確保 AI 進行安全測試的合規性?

參與該項目的企業必須簽署嚴格的法律與賠償框架,明確界定 AI 的操作授權範圍,並遵循國際認可的協調漏洞披露(CVD)流程,以確保測試過程不會對系統的穩定性或數據安全性造成意外損害。

常見問題

為何 Anthropic 不公開 Claude Mythos Preview?

Anthropic 表示該模型在網絡安全方面的強大能力具有潛在的雙刃劍性質,若不加限制地對外發佈,極可能被惡意行為者用作大規模攻擊工具,因此該模型目前僅限於特定安全合作項目中使用。

Project Glasswing 與現有的漏洞掃描工具相比有何不同?

傳統工具通常基於已知的簽名庫進行匹配,而 Claude Mythos Preview 運用 frontier AI 的語義理解與邏輯推理能力,能夠發現隱藏在系統架構中的零日漏洞,實現主動式預防。

企業如何確保 AI 進行安全測試的合規性?

參與該項目的企業必須簽署嚴格的法律與賠償框架,明確界定 AI 的操作授權範圍,並遵循國際認可的協調漏洞披露流程,以確保測試過程不會對系統的穩定性或數據安全性造成意外損害。