OpenAI 于 12 月 10 日发布警告,称其即将推出的 AI 模型可能带来严重的网络安全风险。这家 ChatGPT 背后的公司表示,这些先进模型可能会构建针对防御严密系统的有效零日远程漏洞利用工具。
该 AI 公司还指出,这些模型可能协助复杂的企业或工业入侵操作,导致现实世界的后果。OpenAI 在一篇博客文章中分享了这些信息,文章讨论了其技术不断增长的能力。
这一警告反映了整个 AI 行业对日益强大的模型可能被滥用的担忧。几家主要科技公司已采取行动,保护其 AI 系统免受类似威胁。
谷歌本周宣布更新 Chrome 浏览器安全性,以阻止针对 AI 代理的间接提示注入攻击。这些变更在 Chrome 中 Gemini 代理功能更广泛推出之前实施。
Anthropic 在 2025 年 11 月透露,可能与中国国家支持的组织有关联的威胁行为者,曾利用其 Claude Code 工具进行 AI 驱动的间谍活动。该公司在造成损害前阻止了这一行动。
OpenAI 分享的数据显示 AI 网络安全能力的快速进步。该公司的 GPT-5.1-Codex-Max 模型在 2025 年 11 月的夺旗挑战中达到了 76%。
这比 2024 年 8 月 GPT-5 取得的 27% 成绩有了重大飞跃。夺旗挑战衡量系统定位和利用安全弱点的能力。
短短几个月内的这一进步表明 AI 模型获取高级网络安全能力的速度有多快。这些技能可用于防御和进攻目的。
OpenAI 表示正在构建更强大的模型用于防御性网络安全工作。该公司正在开发工具,帮助安全团队更轻松地审计代码和修复漏洞。
这家由微软支持的公司正使用多层安全措施,包括访问控制、基础设施加固、出口控制和监控系统。OpenAI 正在训练其 AI 模型拒绝有害请求,同时保持对教育和防御工作的有用性。
该公司正在扩大对所有使用前沿模型的产品的监控,以捕捉潜在的恶意网络活动。OpenAI 正与专家红队团队合作,测试和改进其安全系统。
OpenAI 推出了 Aardvark,一个作为安全研究员工作的 AI 代理。该工具正处于私人测试阶段,可以扫描代码中的漏洞并推荐补丁。
维护人员可以快速实施 Aardvark 提出的修复方案。OpenAI 计划向选定的非商业开源代码库免费提供 Aardvark。
该公司将推出一个项目,为合格的网络防御用户和客户提供分级访问增强功能的服务。OpenAI 正在组建前沿风险委员会,将外部网络防御者和安全专家与其内部团队合作。
该委员会将首先关注网络安全,然后扩展到其他前沿能力领域。OpenAI 将很快提供有关面向从事网络防御的用户和开发者的可信访问计划的详细信息。
文章《OpenAI 警告下一代 AI 模型带来高网络安全风险》首次发表于 Blockonomi。