TLDR OpenAI выпустила предупреждение о том, что ее модели искусственного интеллекта нового поколения представляют "высокие" риски кибербезопасности и могут создавать уязвимости нулевого дня GPT-5.1-Codex-Max достигTLDR OpenAI выпустила предупреждение о том, что ее модели искусственного интеллекта нового поколения представляют "высокие" риски кибербезопасности и могут создавать уязвимости нулевого дня GPT-5.1-Codex-Max достиг

OpenAI предупреждает, что модели искусственного интеллекта следующего поколения представляют высокие риски для кибербезопасности

2025/12/11 21:18

TLDR

  • OpenAI выпустила предупреждение о том, что модели ИИ следующего поколения представляют "высокие" риски кибербезопасности и могут создавать эксплойты нулевого дня
  • GPT-5.1-Codex-Max достиг 76% на тестах по кибербезопасности в ноябре 2025 года, что является резким увеличением по сравнению с 27% GPT-5 в августе 2024 года
  • Компания выпускает Aardvark, ИИ-агент, ориентированный на безопасность, который выявляет уязвимости в коде и предлагает исправления
  • OpenAI планирует создать Совет по рискам передовых технологий с экспертами по кибербезопасности и предложить многоуровневый доступ к расширенным функциям безопасности
  • Google и Anthropic также усилили свои системы ИИ против угроз кибербезопасности в последние месяцы

OpenAI выпустила предупреждение 10 декабря, заявив, что ее предстоящие модели ИИ могут создать серьезные риски кибербезопасности. Компания, стоящая за ChatGPT, заявила, что эти продвинутые модели могут создавать работающие удаленные эксплойты нулевого дня, нацеленные на хорошо защищенные системы.

Компания ИИ также отметила, что эти модели могут помочь в сложных корпоративных или промышленных операциях вторжения, которые приводят к реальным последствиям. OpenAI поделилась этой информацией в блог-посте, посвященном растущим возможностям своей технологии.

Предупреждение отражает опасения всей индустрии ИИ о потенциальном неправильном использовании все более мощных моделей. Несколько крупных технологических компаний предприняли действия для защиты своих систем ИИ от подобных угроз.

Google объявила на этой неделе об обновлениях безопасности браузера Chrome для блокировки непрямых атак внедрения промптов на ИИ-агентов. Изменения были внесены перед более широким развертыванием агентных функций Gemini в Chrome.

Anthropic раскрыла в ноябре 2025 года, что злоумышленники, потенциально связанные с китайской группой, спонсируемой государством, использовали ее инструмент Claude Code для управляемой ИИ шпионской операции. Компания остановила кампанию до того, как она причинила ущерб.

Навыки ИИ в кибербезопасности быстро развиваются

OpenAI поделилась данными, показывающими быстрый прогресс в возможностях ИИ в области кибербезопасности. Модель GPT-5.1-Codex-Max компании достигла 76% в соревнованиях capture-the-flag в ноябре 2025 года.

Это представляет собой значительный скачок по сравнению с 27% баллов, которые GPT-5 достиг в августе 2024 года. Соревнования capture-the-flag измеряют, насколько хорошо системы могут обнаруживать и использовать слабые места в безопасности.

Улучшение всего за несколько месяцев показывает, как быстро модели ИИ приобретают продвинутые возможности кибербезопасности. Эти навыки могут использоваться как для оборонительных, так и для наступательных целей.

Новые инструменты безопасности и меры защиты

OpenAI заявила, что создает более сильные модели для оборонительной работы в области кибербезопасности. Компания разрабатывает инструменты, чтобы помочь командам безопасности проверять код и легче исправлять уязвимости.

Фирма, поддерживаемая Microsoft, использует несколько уровней безопасности, включая контроль доступа, укрепление инфраструктуры, контроль выхода и системы мониторинга. OpenAI обучает свои модели ИИ отклонять вредоносные запросы, оставаясь полезными для образования и оборонной работы.

Компания расширяет мониторинг всех продуктов, использующих передовые модели, чтобы обнаруживать потенциально вредоносную кибер-активность. OpenAI сотрудничает с экспертными группами красной команды для тестирования и улучшения своих систем безопасности.

Инструмент Aardvark и Консультативный совет

OpenAI представила Aardvark, ИИ-агента, который работает как исследователь безопасности. Инструмент находится в стадии публичного бета-тестирования и может сканировать код на наличие уязвимостей и рекомендовать патчи.

Разработчики могут быстро внедрять исправления, предлагаемые Aardvark. OpenAI планирует предложить Aardvark бесплатно для выбранных некоммерческих репозиториев кода с открытым исходным кодом.

Компания запустит программу, предоставляющую квалифицированным пользователям и клиентам в области кибербезопасности многоуровневый доступ к расширенным возможностям. OpenAI формирует Совет по рискам передовых технологий, привлекая внешних специалистов по кибербезопасности и экспертов для работы со своими внутренними командами.

Совет начнет с фокуса на кибербезопасности, прежде чем расширяться на другие области передовых возможностей. OpenAI скоро предоставит подробности о программе доверенного доступа для пользователей и разработчиков, работающих в области кибербезопасности.

Пост OpenAI предупреждает, что модели ИИ следующего поколения представляют высокие риски кибербезопасности впервые появился на Blockonomi.

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно