A OpenAI lançou um aviso a 10 de dezembro afirmando que os seus próximos modelos de IA poderiam criar sérios riscos de cibersegurança. A empresa por trás do ChatGPT disse que estes modelos avançados podem construir exploits remotos de dia zero que visam sistemas bem defendidos.
A empresa de IA também observou que estes modelos poderiam ajudar em operações complexas de intrusão empresarial ou industrial que levam a consequências no mundo real. A OpenAI partilhou esta informação num post de blog abordando as crescentes capacidades da sua tecnologia.
O aviso reflete preocupações em toda a indústria de IA sobre o potencial uso indevido de modelos cada vez mais poderosos. Várias grandes empresas de tecnologia tomaram medidas para proteger os seus sistemas de IA contra ameaças semelhantes.
A Google anunciou atualizações na segurança do navegador Chrome esta semana para bloquear ataques indiretos de injeção de prompt em Agentes de IA. As mudanças vieram antes de uma implementação mais ampla dos recursos agênticos do Gemini no Chrome.
A Anthropic revelou em novembro de 2025 que atores de ameaças, potencialmente ligados a um grupo patrocinado pelo estado chinês, tinham usado a sua ferramenta Claude Code para uma operação de espionagem Impulsionada por IA. A empresa interrompeu a campanha antes que causasse danos.
A OpenAI partilhou dados mostrando rápido progresso nas habilidades de cibersegurança de IA. O modelo GPT-5.1-Codex-Max da empresa atingiu 76% nos desafios de capture-the-flag em novembro de 2025.
Isto representa um grande salto em relação à pontuação de 27% que o GPT-5 alcançou em agosto de 2024. Os desafios de capture-the-flag medem quão bem os sistemas podem localizar e explorar fraquezas de segurança.
A melhoria em apenas alguns meses mostra quão rapidamente os modelos de IA estão a ganhar capacidades avançadas de cibersegurança. Estas habilidades podem ser usadas tanto para fins defensivos quanto ofensivos.
A OpenAI disse que está a construir modelos mais fortes para trabalho defensivo de cibersegurança. A empresa está a desenvolver ferramentas para ajudar as equipas de segurança a auditar código e corrigir vulnerabilidades mais facilmente.
A empresa apoiada pela Microsoft está a usar múltiplas camadas de segurança, incluindo controlos de acesso, fortalecimento de infraestrutura, controlos de saída e sistemas de monitoramento. A OpenAI está a treinar os seus modelos de IA para rejeitar pedidos prejudiciais enquanto se mantêm úteis para educação e trabalho de defesa.
A empresa está a expandir o monitoramento em todos os produtos usando modelos de fronteira para capturar atividades cibernéticas potencialmente maliciosas. A OpenAI está a colaborar com grupos especializados em red teaming para testar e melhorar os seus sistemas de segurança.
A OpenAI apresentou o Aardvark, um Agente de IA que trabalha como pesquisador de segurança. A ferramenta está em Teste Beta Público e pode analisar código em busca de vulnerabilidades e recomendar correções.
Os mantenedores podem implementar rapidamente as correções que o Aardvark propõe. A OpenAI planeia oferecer o Aardvark gratuitamente para repositórios de código aberto não comerciais selecionados.
A empresa lançará um programa dando aos utilizadores e clientes qualificados de ciberdefesa acesso em níveis a capacidades aprimoradas. A OpenAI está a formar o Conselho de Risco de Fronteira, trazendo defensores cibernéticos externos e especialistas em segurança para trabalhar com as suas equipas internas.
O conselho começará por se concentrar na cibersegurança antes de expandir para outras áreas de capacidade de fronteira. A OpenAI fornecerá em breve detalhes sobre o programa de acesso confiável para utilizadores e desenvolvedores que trabalham em ciberdefesa.
O post OpenAI Avisa que Modelos de IA de Próxima Geração Representam Altos Riscos de Cibersegurança apareceu primeiro no Blockonomi.


