OpenAI veröffentlichte am 10. Dezember eine Warnung, dass seine kommenden KI-Modelle ernsthafte Cybersicherheitsrisiken verursachen könnten. Das Unternehmen hinter ChatGPT erklärte, dass diese fortschrittlichen Modelle funktionsfähige Zero-Day-Remote-Exploits entwickeln könnten, die auf gut geschützte Systeme abzielen.
Das KI-Unternehmen merkte auch an, dass diese Modelle bei komplexen Unternehmens- oder industriellen Eindringoperationen helfen könnten, die reale Konsequenzen nach sich ziehen. OpenAI teilte diese Informationen in einem Blogbeitrag mit, der die wachsenden Fähigkeiten seiner Technologie thematisiert.
Die Warnung spiegelt die Bedenken in der gesamten KI-Branche hinsichtlich des potenziellen Missbrauchs zunehmend leistungsfähiger Modelle wider. Mehrere große Technologieunternehmen haben Maßnahmen ergriffen, um ihre KI-Systeme gegen ähnliche Bedrohungen zu sichern.
Google kündigte diese Woche Updates für die Chrome-Browser-Sicherheit an, um indirekte Prompt-Injection-Angriffe auf AI Agents zu blockieren. Die Änderungen kamen vor einer breiteren Einführung von Gemini-Agentenfunktionen in Chrome.
Anthropic enthüllte im November 2025, dass Bedrohungsakteure, möglicherweise mit Verbindungen zu einer staatlich geförderten chinesischen Gruppe, ihr Claude Code-Tool für eine KI-gesteuerte Spionageoperation genutzt hatten. Das Unternehmen stoppte die Kampagne, bevor sie Schaden anrichten konnte.
OpenAI teilte Daten mit, die schnelle Fortschritte bei den KI-Cybersicherheitsfähigkeiten zeigen. Das GPT-5.1-Codex-Max-Modell des Unternehmens erreichte im November 2025 76% bei Capture-the-Flag-Herausforderungen.
Dies stellt einen großen Sprung gegenüber dem Ergebnis von 27% dar, das GPT-5 im August 2024 erzielte. Capture-the-Flag-Herausforderungen messen, wie gut Systeme Sicherheitsschwachstellen lokalisieren und ausnutzen können.
Die Verbesserung innerhalb weniger Monate zeigt, wie schnell KI-Modelle fortgeschrittene Cybersicherheitsfähigkeiten erlangen. Diese Fähigkeiten können sowohl für defensive als auch für offensive Zwecke eingesetzt werden.
OpenAI gab an, stärkere Modelle für defensive Cybersicherheitsarbeit zu entwickeln. Das Unternehmen entwickelt Tools, um Sicherheitsteams bei der Codeprüfung und der einfacheren Behebung von Schwachstellen zu unterstützen.
Das von Microsoft unterstützte Unternehmen verwendet mehrere Sicherheitsebenen, darunter Zugangskontrollen, Infrastrukturhärtung, Ausgangskontrollen und Überwachungssysteme. OpenAI trainiert seine KI-Modelle darauf, schädliche Anfragen abzulehnen und gleichzeitig für Bildungs- und Verteidigungsarbeit nützlich zu bleiben.
Das Unternehmen erweitert die Überwachung aller Produkte, die Frontier-Modelle verwenden, um potenziell bösartige Cyberaktivitäten zu erkennen. OpenAI arbeitet mit erfahrenen Red-Teaming-Gruppen zusammen, um seine Sicherheitssysteme zu testen und zu verbessern.
OpenAI stellte Aardvark vor, einen AI Agent, der als Sicherheitsforscher arbeitet. Das Tool befindet sich im Öffentlicher Beta-Test und kann Code auf Schwachstellen scannen und Patches empfehlen.
Betreuer können die von Aardvark vorgeschlagenen Korrekturen schnell implementieren. OpenAI plant, Aardvark kostenlos für ausgewählte nicht-kommerzielle Open-Source-Code-Repositories anzubieten.
Das Unternehmen wird ein Programm starten, das qualifizierten Cyberdefense-Nutzern und Kunden gestaffelten Zugang zu erweiterten Funktionen bietet. OpenAI bildet den Frontier Risk Council, der externe Cyberverteidiger und Sicherheitsexperten mit seinen internen Teams zusammenbringt.
Der Rat wird zunächst den Schwerpunkt auf Cybersicherheit legen, bevor er auf andere Frontier-Fähigkeitsbereiche ausgeweitet wird. OpenAI wird in Kürze Details zum Trusted-Access-Programm für Nutzer und Entwickler, die an Cyberdefense arbeiten, bereitstellen.
Der Beitrag OpenAI warnt vor hohen Cybersicherheitsrisiken durch KI-Modelle der nächsten Generation erschien zuerst auf Blockonomi.

