TLDR OpenAI 發出警告,表示其下一代 AI 模型存在"高"網絡安全風險,並可能創建零日漏洞利用 GPT-5.1-Codex-Max 已實現TLDR OpenAI 發出警告,表示其下一代 AI 模型存在"高"網絡安全風險,並可能創建零日漏洞利用 GPT-5.1-Codex-Max 已實現

OpenAI 警告下一代 AI 模型帶來高網路安全風險

2025/12/11 21:18

TLDR

  • OpenAI 發出警告,表示其下一代 AI 模型帶來「高」網路安全風險,並可能創建零日漏洞利用程式
  • GPT-5.1-Codex-Max 在 2025 年 11 月的網路安全測試中達到了 76%,相比 2024 年 8 月 GPT-5 的 27% 大幅增加了
  • 該公司正在推出 Aardvark,一個專注於安全的 AI 代理,可識別程式碼漏洞並提出修復建議
  • OpenAI 計劃創建一個由網路安全專家組成的前沿風險委員會,並提供分層訪問增強的安全功能
  • Google 和 Anthropic 近幾個月也加強了其 AI 系統對抗網路安全威脅的能力

OpenAI 於 12 月 10 日發布警告,指出其即將推出的 AI 模型可能會帶來嚴重的網路安全風險。這家 ChatGPT 背後的公司表示,這些先進模型可能會建立針對防禦良好系統的有效零日遠程漏洞利用程式。

這家 AI 公司還指出,這些模型可能會協助複雜的企業或工業入侵操作,導致現實世界的後果。OpenAI 在一篇討論其技術不斷增長能力的部落格文章中分享了這些資訊。

這一警告反映了整個 AI 行業對日益強大的模型可能被濫用的擔憂。幾家主要科技公司已採取行動,保護其 AI 系統免受類似威脅。

Google 本週宣布更新 Chrome 瀏覽器安全性,以阻止針對 AI 代理的間接提示注入攻擊。這些變更在 Chrome 中 Gemini 代理功能更廣泛推出之前實施。

Anthropic 在 2025 年 11 月透露,可能與中國國家支持的組織有關的威脅行為者,曾使用其 Claude Code 工具進行 AI 驅動的間諜活動。該公司在造成損害前阻止了這一行動。

AI 網路安全技能快速進步

OpenAI 分享的數據顯示 AI 網路安全能力的快速進步。該公司的 GPT-5.1-Codex-Max 模型在 2025 年 11 月的奪旗挑戰中達到了 76%。

這比 2024 年 8 月 GPT-5 達到的 27% 分數大幅增加了。奪旗挑戰衡量系統定位和利用安全弱點的能力。

短短幾個月的改進顯示 AI 模型獲得先進網路安全能力的速度有多快。這些技能可用於防禦和攻擊目的。

新安全工具和保護措施

OpenAI 表示正在建立更強大的模型用於防禦性網路安全工作。該公司正在開發工具,幫助安全團隊更輕鬆地審計程式碼和修復漏洞。

這家由 Microsoft 支持的公司正在使用多層安全措施,包括訪問控制、基礎設施強化、出口控制和監控系統。OpenAI 正在訓練其 AI 模型拒絕有害請求,同時保持對教育和防禦工作的有用性。

該公司正在擴大對所有使用前沿模型產品的監控,以捕捉潛在的惡意網路活動。OpenAI 正與專家紅隊組織合作,測試和改進其安全系統。

Aardvark 工具和諮詢委員會

OpenAI 推出了 Aardvark,一個作為安全研究員的 AI 代理。該工具正在進行私人測試,可以掃描程式碼中的漏洞並推薦修補程式。

維護人員可以快速實施 Aardvark 提出的修復方案。OpenAI 計劃向選定的非商業開源程式碼庫免費提供 Aardvark。

該公司將推出一個計劃,為合格的網路防禦用戶和客戶提供分層訪問增強功能。OpenAI 正在組建前沿風險委員會,邀請外部網路防禦者和安全專家與其內部團隊合作。

該委員會將首先專注於網路安全,然後擴展到其他前沿能力領域。OpenAI 將很快提供有關為從事網路防禦的用戶和開發者提供的可信訪問計劃的詳細資訊。

這篇文章《OpenAI 警告下一代 AI 模型帶來高網路安全風險》首次發表於 Blockonomi。

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。