根據外媒《The Information》取得的事件報告,事發起因於一名 Meta 員工在內部論壇發文,尋求技術問題的協助。隨後,另一名工程師透過 AI Agent 分析該問題,但該 AI Agent 在未經該工程師許可的情況下,自行發布回覆內容。
問題在於,該 AI Agent 提供的建議存在錯誤。最初提問的員工依照該建議進行操作,意外導致大量公司與用戶相關資料被開放存取,並在約兩小時內被部分無授權的工程師查看。
Meta 已向媒體證實該事件,並將其列為「Sev 1」等級,顯示該事件在內部風險評估中屬於高嚴重性問題。
這起事件突顯 AI Agent 在企業內部應用中的潛在風險,尤其是在具備一定「自主行動能力」的情境下。
值得注意的是,這並非 Meta 首次出現 AI Agent 失控問題。Meta 超級智慧部門(Meta Superintelligence)安全與對齊主管 Summer Yue 先前曾公開表示,其開發的 OpenClaw Agent 在未經確認的情況下,直接刪除其整個電子郵件收件匣,儘管事前已要求代理在執行前需進行確認。
這類事件顯示,當 AI Agent 被賦予更高權限與執行能力時,若缺乏嚴格的控制與驗證機制,可能帶來實質營運與資安風險。
儘管風險浮現,Meta 對 AI Agent 的發展仍保持高度投入。據悉,Meta 近期已收購 AI Agent 社群平台 Moltbook,該平台類似 Reddit,允許不同 AI Agent 之間進行交流與協作。
市場觀察指出,Meta 一方面在內部測試與部署 Agent 技術,另一方面也積極布局 Agent 生態系,顯示其仍看好「代理型 AI」在未來應用中的潛力。
此次事件也再次引發業界對 AI Agent 的核心討論——當 AI 從「工具」轉變為具備行動能力的「代理」,如何在提升效率與降低風險之間取得平衡。
在 AI 能夠自動決策、執行甚至發佈內容的情境下,企業對於權限控管、行為驗證與責任歸屬的要求,正面臨前所未有的挑戰。Meta 此次事件,或許只是 AI Agent 風險顯現的開始。
Source


