AI 的安全研究新突破
人工智慧在資安領域的應用取得了重大突破。據 VentureBeat 與 Ars Technica 的報導,Anthropic 開發的 Claude Mythos AI 預覽版在無需人類指導的情況下,成功發現了存在於 OpenBSD 的 TCP 協議堆棧中長達 27 年的致命漏洞。該漏洞極具破壞力,理論上只要發送兩個數據包,就能讓任何運行該系統的服務器崩潰。最令人驚訝的是,這一發現是在人類工程師與傳統掃描工具檢視過多次仍未發現的情況下完成的。研究顯示,整個發現過程的成本極低,對於資安研究與防禦自動化來說具有重要價值。
技術意涵與風險管理
此事件突顯了 Agentic AI 在安全防禦中的潛力,同時也警示了新的威脅形式。Claude Mythos 展現出自主執行複雜安全分析的能力,這意味著未來的網路戰爭與資安攻防將進入「機器對機器」的超高速度與深度層面。對於企業資安團隊而言,目前的偵測守則可能需要全面改寫。然而,與 Anthropic 同時處於監管聚光燈下的還有該公司的軍事應用法律爭議。據報導,美國上訴法院最近針對 Anthropic 與五角大廈之間的爭議作出裁定,結果偏向政府一方,這使得 Anthropic 的 AI 技術在軍事領域的合規使用前景變得極為不明朗。
產業趨勢與心理評估
有趣的是,Anthropic 在訓練過程中還為 Claude 進行了相當特殊的處理。Ars Technica 指出,Anthropic 讓 Claude 接受了長達 20 小時的心理分析與評估,目標是訓練出一個更「心理穩定」的模型。這種結合心理學原理的訓練方法,展現了 Anthropic 對於開發強大但受控 AI 的探索路徑。
未來觀察
Claude Mythos 發現的 27 年漏洞,只是 AI 在資安領域潛力的冰山一角。未來我們需要關注:
- 這種自主漏洞發現工具將如何進入黑市,以及其對企業安全防禦的影響。
- AI 在資安分析上的自主程度是否會引發新的道德風險。
- Anthropic 如何在政府監管、法律訴訟與技術創新之間尋求平衡。
