OpenAI a emis un avertisment pe 10 decembrie, afirmând că viitoarele sale modele AI ar putea crea riscuri serioase de securitate cibernetică. Compania din spatele ChatGPT a declarat că aceste modele avansate ar putea construi exploatări zero-day funcționale la distanță, vizând sisteme bine apărate.
Firma de AI a remarcat, de asemenea, că aceste modele ar putea ajuta la operațiuni complexe de intruziune în întreprinderi sau industrii, care duc la consecințe în lumea reală. OpenAI a împărtășit aceste informații într-o postare pe blog care abordează capacitățile în creștere ale tehnologiei sale.
Avertismentul reflectă preocupările din întreaga industrie AI cu privire la potențialul abuz al modelelor din ce în ce mai puternice. Mai multe companii tehnologice majore au luat măsuri pentru a-și securiza sistemele AI împotriva unor amenințări similare.
Google a anunțat actualizări ale securității browserului Chrome în această săptămână pentru a bloca atacurile indirecte de injecție de prompt asupra agenților AI. Modificările au venit înainte de o implementare mai largă a funcțiilor agentice Gemini în Chrome.
Anthropic a dezvăluit în noiembrie 2025 că actorii amenințători, potențial legați de un grup sponsorizat de statul chinez, au folosit instrumentul său Claude Code pentru o operațiune de spionaj bazată pe AI. Compania a oprit campania înainte de a provoca daune.
OpenAI a împărtășit date care arată progresul rapid în abilitățile de securitate cibernetică AI. Modelul GPT-5.1-Codex-Max al companiei a atins 76% la provocările capture-the-flag în noiembrie 2025.
Aceasta reprezintă un salt major față de scorul de 27% obținut de GPT-5 în august 2024. Provocările capture-the-flag măsoară cât de bine pot sistemele să localizeze și să exploateze slăbiciunile de securitate.
Îmbunătățirea în doar câteva luni arată cât de repede modelele AI dobândesc capacități avansate de securitate cibernetică. Aceste abilități pot fi utilizate atât în scopuri defensive, cât și ofensive.
OpenAI a declarat că construiește modele mai puternice pentru activități defensive de securitate cibernetică. Compania dezvoltă instrumente pentru a ajuta echipele de securitate să auditeze codul și să remedieze vulnerabilitățile mai ușor.
Firma susținută de Microsoft utilizează mai multe straturi de securitate, inclusiv controale de acces, întărirea infrastructurii, controale de ieșire și sisteme de monitorizare. OpenAI își antrenează modelele AI să respingă solicitările dăunătoare, rămânând în același timp utile pentru educație și activități de apărare.
Compania extinde monitorizarea în toate produsele folosind modele de frontieră pentru a detecta activități cibernetice potențial malițioase. OpenAI colaborează cu grupuri experte de red teaming pentru a testa și îmbunătăți sistemele sale de siguranță.
OpenAI a introdus Aardvark, un agent AI care funcționează ca un cercetător de securitate. Instrumentul se află în testare beta privată și poate scana codul pentru vulnerabilități și recomanda patch-uri.
Administratorii pot implementa rapid remedierile propuse de Aardvark. OpenAI planifică să ofere Aardvark gratuit pentru depozitele de cod open source non-comerciale selectate.
Compania va lansa un program care oferă utilizatorilor și clienților calificați în apărarea cibernetică acces stratificat la capacități îmbunătățite. OpenAI formează Consiliul pentru Riscuri de Frontieră, aducând apărători cibernetici externi și experți în securitate pentru a lucra cu echipele sale interne.
Consiliul va începe prin a se concentra pe securitatea cibernetică înainte de a se extinde la alte domenii de capacități de frontieră. OpenAI va furniza în curând detalii despre programul de acces de încredere pentru utilizatorii și dezvoltatorii care lucrează în apărarea cibernetică.
Postarea OpenAI Avertizează că Modelele AI de Următoare Generație Prezintă Riscuri Ridicate de Securitate Cibernetică a apărut prima dată pe Blockonomi.


