TLDR A OpenAI emitiu um aviso de que os seus modelos de IA de próxima geração apresentam riscos de cibersegurança "elevados" e poderiam criar exploits de dia zero GPT-5.1-Codex-Max alcançouTLDR A OpenAI emitiu um aviso de que os seus modelos de IA de próxima geração apresentam riscos de cibersegurança "elevados" e poderiam criar exploits de dia zero GPT-5.1-Codex-Max alcançou

OpenAI alerta que modelos de IA de próxima geração representam altos riscos de cibersegurança

2025/12/11 21:18

TLDR

  • A OpenAI emitiu um aviso de que os seus modelos de IA de próxima geração apresentam riscos de cibersegurança "elevados" e poderiam criar exploits de dia zero
  • O GPT-5.1-Codex-Max alcançou 76% nos testes de cibersegurança em novembro de 2025, um aumento acentuado em relação aos 27% do GPT-5 em agosto de 2024
  • A empresa está a lançar o Aardvark, um Agente de IA focado em segurança que identifica vulnerabilidades de código e sugere correções
  • A OpenAI planeia criar um Conselho de Risco de Fronteira com especialistas em cibersegurança e oferecer acesso em níveis a recursos de segurança aprimorados
  • A Google e a Anthropic também fortaleceram os seus sistemas de IA contra ameaças de cibersegurança nos últimos meses

A OpenAI lançou um aviso a 10 de dezembro afirmando que os seus próximos modelos de IA poderiam criar sérios riscos de cibersegurança. A empresa por trás do ChatGPT disse que estes modelos avançados podem construir exploits remotos de dia zero que visam sistemas bem defendidos.

A empresa de IA também observou que estes modelos poderiam ajudar em operações complexas de intrusão empresarial ou industrial que levam a consequências no mundo real. A OpenAI partilhou esta informação num post de blog abordando as crescentes capacidades da sua tecnologia.

O aviso reflete preocupações em toda a indústria de IA sobre o potencial uso indevido de modelos cada vez mais poderosos. Várias grandes empresas de tecnologia tomaram medidas para proteger os seus sistemas de IA contra ameaças semelhantes.

A Google anunciou atualizações na segurança do navegador Chrome esta semana para bloquear ataques indiretos de injeção de prompt em Agentes de IA. As mudanças vieram antes de uma implementação mais ampla dos recursos agênticos do Gemini no Chrome.

A Anthropic revelou em novembro de 2025 que atores de ameaças, potencialmente ligados a um grupo patrocinado pelo estado chinês, tinham usado a sua ferramenta Claude Code para uma operação de espionagem Impulsionada por IA. A empresa interrompeu a campanha antes que causasse danos.

Habilidades de Cibersegurança de IA Avançando Rapidamente

A OpenAI partilhou dados mostrando rápido progresso nas habilidades de cibersegurança de IA. O modelo GPT-5.1-Codex-Max da empresa atingiu 76% nos desafios de capture-the-flag em novembro de 2025.

Isto representa um grande salto em relação à pontuação de 27% que o GPT-5 alcançou em agosto de 2024. Os desafios de capture-the-flag medem quão bem os sistemas podem localizar e explorar fraquezas de segurança.

A melhoria em apenas alguns meses mostra quão rapidamente os modelos de IA estão a ganhar capacidades avançadas de cibersegurança. Estas habilidades podem ser usadas tanto para fins defensivos quanto ofensivos.

Novas Ferramentas de Segurança e Medidas de Proteção

A OpenAI disse que está a construir modelos mais fortes para trabalho defensivo de cibersegurança. A empresa está a desenvolver ferramentas para ajudar as equipas de segurança a auditar código e corrigir vulnerabilidades mais facilmente.

A empresa apoiada pela Microsoft está a usar múltiplas camadas de segurança, incluindo controlos de acesso, fortalecimento de infraestrutura, controlos de saída e sistemas de monitoramento. A OpenAI está a treinar os seus modelos de IA para rejeitar pedidos prejudiciais enquanto se mantêm úteis para educação e trabalho de defesa.

A empresa está a expandir o monitoramento em todos os produtos usando modelos de fronteira para capturar atividades cibernéticas potencialmente maliciosas. A OpenAI está a colaborar com grupos especializados em red teaming para testar e melhorar os seus sistemas de segurança.

Ferramenta Aardvark e Conselho Consultivo

A OpenAI apresentou o Aardvark, um Agente de IA que trabalha como pesquisador de segurança. A ferramenta está em Teste Beta Público e pode analisar código em busca de vulnerabilidades e recomendar correções.

Os mantenedores podem implementar rapidamente as correções que o Aardvark propõe. A OpenAI planeia oferecer o Aardvark gratuitamente para repositórios de código aberto não comerciais selecionados.

A empresa lançará um programa dando aos utilizadores e clientes qualificados de ciberdefesa acesso em níveis a capacidades aprimoradas. A OpenAI está a formar o Conselho de Risco de Fronteira, trazendo defensores cibernéticos externos e especialistas em segurança para trabalhar com as suas equipas internas.

O conselho começará por se concentrar na cibersegurança antes de expandir para outras áreas de capacidade de fronteira. A OpenAI fornecerá em breve detalhes sobre o programa de acesso confiável para utilizadores e desenvolvedores que trabalham em ciberdefesa.

O post OpenAI Avisa que Modelos de IA de Próxima Geração Representam Altos Riscos de Cibersegurança apareceu primeiro no Blockonomi.

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.