跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

Anthropic Claude Mythos AI 自主發現 27 年未決資安漏洞

Anthropic 的 Claude Mythos AI 在沒有人類引導的情況下,自主發現了存在 27 年的 OpenBSD 資安漏洞。此事件展示了 Agentic AI 在安全防禦中的強大潛力,但也凸顯了 Anthropic 在技術突破與法律糾紛中的複雜處境。

Jason
Jason
· 2 分鐘閱讀
更新於 2026年4月10日
An abstract, glowing digital brain structure, code lines floating in the background, a spotlight foc

⚡ TL;DR

Anthropic 的 Claude Mythos AI 自主發現了存在 27 年的 OpenBSD 嚴重資安漏洞。

AI 的安全研究新突破

人工智慧在資安領域的應用取得了重大突破。據 VentureBeat 與 Ars Technica 的報導,Anthropic 開發的 Claude Mythos AI 預覽版在無需人類指導的情況下,成功發現了存在於 OpenBSD 的 TCP 協議堆棧中長達 27 年的致命漏洞。該漏洞極具破壞力,理論上只要發送兩個數據包,就能讓任何運行該系統的服務器崩潰。最令人驚訝的是,這一發現是在人類工程師與傳統掃描工具檢視過多次仍未發現的情況下完成的。研究顯示,整個發現過程的成本極低,對於資安研究與防禦自動化來說具有重要價值。

技術意涵與風險管理

此事件突顯了 Agentic AI 在安全防禦中的潛力,同時也警示了新的威脅形式。Claude Mythos 展現出自主執行複雜安全分析的能力,這意味著未來的網路戰爭與資安攻防將進入「機器對機器」的超高速度與深度層面。對於企業資安團隊而言,目前的偵測守則可能需要全面改寫。然而,與 Anthropic 同時處於監管聚光燈下的還有該公司的軍事應用法律爭議。據報導,美國上訴法院最近針對 Anthropic 與五角大廈之間的爭議作出裁定,結果偏向政府一方,這使得 Anthropic 的 AI 技術在軍事領域的合規使用前景變得極為不明朗。

產業趨勢與心理評估

有趣的是,Anthropic 在訓練過程中還為 Claude 進行了相當特殊的處理。Ars Technica 指出,Anthropic 讓 Claude 接受了長達 20 小時的心理分析與評估,目標是訓練出一個更「心理穩定」的模型。這種結合心理學原理的訓練方法,展現了 Anthropic 對於開發強大但受控 AI 的探索路徑。

未來觀察

Claude Mythos 發現的 27 年漏洞,只是 AI 在資安領域潛力的冰山一角。未來我們需要關注:

  1. 這種自主漏洞發現工具將如何進入黑市,以及其對企業安全防禦的影響。
  2. AI 在資安分析上的自主程度是否會引發新的道德風險。
  3. Anthropic 如何在政府監管、法律訴訟與技術創新之間尋求平衡。

常見問題

為什麼這個漏洞發現特別重要?

該漏洞存在了 27 年,且經歷了無數人類審計與傳統掃描工具,Claude Mythos 在沒有人為指導下成功將其找出,展示了 AI 在安全分析中的卓越自主能力。

Anthropic 對 AI 進行心理評估的目的為何?

Anthropic 透過心理學輔助訓練,旨在提升模型的穩定性與可靠性,確保在處理極端自主的任務時,模型行為更可預測且符合安全目標。

Anthropic 面臨的法律問題是什麼?

Anthropic 目前正與美國政府(特別是五角大廈)就其技術的合規使用存在重大法律爭議,最近上訴法院的裁定對公司並不有利。