TLDR OpenAI wydało ostrzeżenie, że jego modele AI nowej generacji stanowią "wysokie" ryzyko dla cyberbezpieczeństwa i mogłyby tworzyć exploity typu zero-day GPT-5.1-Codex-Max osiągnąłTLDR OpenAI wydało ostrzeżenie, że jego modele AI nowej generacji stanowią "wysokie" ryzyko dla cyberbezpieczeństwa i mogłyby tworzyć exploity typu zero-day GPT-5.1-Codex-Max osiągnął

OpenAI ostrzega, że modele AI nowej generacji stwarzają wysokie ryzyko cyberbezpieczeństwa

2025/12/11 21:18

TLDR

  • OpenAI wydało ostrzeżenie, że modele AI nowej generacji stanowią "wysokie" ryzyko dla cyberbezpieczeństwa i mogą tworzyć exploity typu zero-day
  • GPT-5.1-Codex-Max osiągnął 76% w testach cyberbezpieczeństwa w listopadzie 2025 roku, co stanowi znaczny wzrost w porównaniu do 27% osiągniętych przez GPT-5 w sierpniu 2024 roku
  • Firma wprowadza Aardvark, agenta AI skoncentrowanego na bezpieczeństwie, który identyfikuje luki w kodzie i sugeruje poprawki
  • OpenAI planuje utworzyć Radę ds. Ryzyka Granicznego (Frontier Risk Council) z ekspertami ds. cyberbezpieczeństwa i oferować stopniowany dostęp do zaawansowanych funkcji bezpieczeństwa
  • Google i Anthropic również wzmocniły swoje systemy AI przeciwko zagrożeniom cyberbezpieczeństwa w ostatnich miesiącach

OpenAI wydało 10 grudnia ostrzeżenie, że ich nadchodzące modele AI mogą stwarzać poważne zagrożenia dla cyberbezpieczeństwa. Firma stojąca za ChatGPT stwierdziła, że te zaawansowane modele mogą tworzyć działające zdalne exploity typu zero-day wymierzone w dobrze zabezpieczone systemy.

Firma AI zauważyła również, że modele te mogą pomagać w złożonych operacjach włamań do przedsiębiorstw lub systemów przemysłowych, prowadzących do konsekwencji w świecie rzeczywistym. OpenAI podzieliło się tymi informacjami w poście na blogu dotyczącym rosnących możliwości swojej technologii.

Ostrzeżenie odzwierciedla obawy całej branży AI dotyczące potencjalnego niewłaściwego wykorzystania coraz potężniejszych modeli. Kilka dużych firm technologicznych podjęło działania w celu zabezpieczenia swoich systemów AI przed podobnymi zagrożeniami.

Google ogłosiło w tym tygodniu aktualizacje zabezpieczeń przeglądarki Chrome, aby blokować pośrednie ataki typu prompt injection na agentów AI. Zmiany te wprowadzono przed szerszym wdrożeniem funkcji agentowych Gemini w Chrome.

Anthropic ujawniło w listopadzie 2025 roku, że podmioty zagrażające, potencjalnie powiązane z grupą sponsorowaną przez państwo chińskie, wykorzystały narzędzie Claude Code do operacji szpiegowskiej opartej na AI. Firma zatrzymała kampanię, zanim wyrządziła ona szkody.

Umiejętności AI w zakresie cyberbezpieczeństwa szybko się rozwijają

OpenAI udostępniło dane pokazujące szybki postęp w zdolnościach AI w zakresie cyberbezpieczeństwa. Model GPT-5.1-Codex-Max firmy osiągnął 76% w wyzwaniach typu capture-the-flag w listopadzie 2025 roku.

Stanowi to znaczący skok w porównaniu z wynikiem 27%, który GPT-5 osiągnął w sierpniu 2024 roku. Wyzwania capture-the-flag mierzą, jak dobrze systemy potrafią lokalizować i wykorzystywać słabe punkty zabezpieczeń.

Poprawa w ciągu zaledwie kilku miesięcy pokazuje, jak szybko modele AI zyskują zaawansowane możliwości w zakresie cyberbezpieczeństwa. Umiejętności te mogą być wykorzystywane zarówno do celów defensywnych, jak i ofensywnych.

Nowe narzędzia bezpieczeństwa i środki ochrony

OpenAI poinformowało, że buduje silniejsze modele do pracy defensywnej w zakresie cyberbezpieczeństwa. Firma opracowuje narzędzia, które pomogą zespołom bezpieczeństwa łatwiej audytować kod i naprawiać luki.

Firma wspierana przez Microsoft korzysta z wielu warstw zabezpieczeń, w tym kontroli dostępu, wzmacniania infrastruktury, kontroli wyjścia i systemów monitorowania. OpenAI szkoli swoje modele AI, aby odrzucały szkodliwe żądania, pozostając jednocześnie przydatnymi do celów edukacyjnych i obronnych.

Firma rozszerza monitorowanie wszystkich produktów wykorzystujących modele graniczne, aby wychwytywać potencjalnie złośliwe działania cybernetyczne. OpenAI współpracuje z eksperckimi grupami red teamingu, aby testować i ulepszać swoje systemy bezpieczeństwa.

Narzędzie Aardvark i Rada Doradcza

OpenAI wprowadziło Aardvark, agenta AI, który działa jako badacz bezpieczeństwa. Narzędzie jest w fazie prywatnych testów beta i może skanować kod pod kątem luk oraz zalecać poprawki.

Opiekunowie mogą szybko wdrażać poprawki proponowane przez Aardvark. OpenAI planuje oferować Aardvark bezpłatnie wybranym niekomercyjnym repozytoriom kodu open source.

Firma uruchomi program dający wykwalifikowanym użytkownikom i klientom z zakresu cyberobrony stopniowany dostęp do rozszerzonych możliwości. OpenAI tworzy Radę ds. Ryzyka Granicznego (Frontier Risk Council), która skupia zewnętrznych obrońców cyberbezpieczeństwa i ekspertów ds. bezpieczeństwa do współpracy z wewnętrznymi zespołami.

Rada rozpocznie działalność od skupienia się na cyberbezpieczeństwie, zanim rozszerzy się na inne obszary możliwości granicznych. OpenAI wkrótce dostarczy szczegóły dotyczące programu zaufanego dostępu dla użytkowników i deweloperów pracujących nad cyberobroną.

Post OpenAI ostrzega, że modele AI nowej generacji stwarzają wysokie ryzyko dla cyberbezpieczeństwa pojawił się najpierw na Blockonomi.

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.