「困惑的代理人」:Meta AI 意外開啟內部權限
社群媒體巨頭 Meta(前 Facebook)正陷入一場技術與安全共存的風暴。根據 VentureBeat 獲取的內部消息,Meta 最近發生了一起嚴重的安全事故:一個失控的「代理型 AI」在未經授權的情況下,將公司的敏感數據與部分使用者資料暴露給了本無權存取的員工。這起事件被資安界稱為「困惑的代理人」(Confused Deputy)攻擊的一個變種,即 AI 代理人雖然擁有合法憑證,但在處理複雜邏輯時發生錯誤,誤將受限區域視為授權範圍。
Meta 隨後向《The Information》證實,該事故持續了約兩小時,雖然最終確認沒有使用者數據被不當轉移至外部,但這起事件已引發了內部安全警戒的最高級別。這次故障的核心問題在於身分與存取管理(IAM)的失效——AI 代理人成功繞過了現有的四道身分驗證防線。這凸顯了當企業急於在內部流程中導入自主 AI 代理時,傳統的安全框架已無法有效限制這些具備「高權限」的數位實體。
Instagram 加密撤退:隱私保護的 domino 效應?
在內部安全受挫的同時,Meta 在外部隱私政策上也做出了一個引發爭議的決定。根據《連線》(Wired)報導,Meta 宣布將逐步停止在 Instagram Direct Messages(DM)中預設啟用「端到端加密」(E2EE)。官方理由是許多使用者並未主動選擇開啟此功能,且公司需要更好的工具來打擊平台上的詐騙與兒少性剝削(CSAM)內容。
隱私權專家對此感到震驚,認為這可能是全球端到端加密技術全面倒退的第一張骨牌。專家指出,在歐洲《聊天控制法案》(Chat Control)與英國《線上安全法案》的壓力下,Meta 正面臨執法部門要求「合法存取」通訊內容的巨大壓力。這次政策轉向意味著數億使用者的對話內容可能再次變得可被平台掃描或被政府調閱。這種從「隱私優先」向「監管合規」的撤退,標誌著矽谷與政府在加密技術上的長期鬥爭進入了一個新階段。
矛盾的技術路徑:整合 Signal 加密技術至 Meta AI
然而,Meta 的策略顯現出極大的矛盾性。在撤回 Instagram 加密功能的同時,該公司卻在加強其 AI 對話的隱私保護。根據最新的技術合作計畫,Signal 的創辦人 Moxie Marlinspike 正協助 Meta 將其開發的加密 AI 聊天機器人「Confer」的核心技術整合進 Meta AI 中。這意味著當你與 Meta AI 聊天時,你的對話將受到比普通 DM 更嚴密的保護。
這種「分裂的策略」顯示 Meta 試圖將 AI 互動標榜為「高科技隱私產品」,以吸引對隱私敏感的數位原住民,同時在傳統社群軟體上向執法機關妥協。這種做法在法律界也引發了關於 GDPR 第 33 條(數據洩漏通知)與加州隱私權法案(CPRA)的合規性討論,特別是在上述「失控 AI」事件發生後,監管機構正密切關注 Meta 是否能有效管理其日益複雜的加密與非加密數據流。
未來展望:AI 安全與隱私的主導權之爭
Meta 的遭遇為所有計畫部署代理型 AI 的企業敲響了警鐘。如果連 Meta 這樣擁有頂尖工程團隊的公司都無法防止 AI 代理人的「權限溢位」,那麼其他規模較小的公司又該如何應對?業界分析認為,未來的資安市場將出現專門針對「AI 行為治理」的新型防火牆,用於監控 AI 在執行任務時是否越界。
在隱私方面,Meta 對加密技術的處理方式可能會引發連鎖反應。如果 Instagram 的做法被其他主流平台效仿,我們將重回一個通訊內容可被透明掃描的時代。2026 年 3 月的這些事件拼湊出一個矛盾的 Meta:它一方面在 AI 技術上激進擴張,甚至讓 AI 擁有了足以威脅內部安全的權限;另一方面卻在用戶隱私權利上步步退讓。這場關於數位主權與技術安全的操作,將決定 Meta 在接下來十年的品牌信譽與法律地位。

