CTF-Erfolgsquote von 71,4 Prozent

OpenAI veröffentlicht GPT-5.5-Cyber für kritische Infrastrukturen

OpenAI, openai codex, chatgpt codex, openai code, chatgpt code, Codex, ChatGPT
Bildquelle: Markus Mainka / Shutterstock.com

OpenAI veröffentlicht GPT-5.5-Cyber für Sicherheitsteams. Das Modell unterstützt Abwehr-Tasks wie Malware-Analyse, blockiert aber kriminellen Missbrauch.

OpenAI hat eine spezialisierte Version seines neuesten KI-Modells, GPT-5.5-Cyber, für einen begrenzten Kreis verifizierter Sicherheitsexperten freigegeben. Das Modell, das von OpenAI als das bisher „smarteste und intuitivste“ System des Unternehmens beschrieben wird, ist gezielt auf die Anforderungen der defensiven Cybersicherheit zugeschnitten. Die Veröffentlichung erfolgt vor dem Hintergrund eines intensiven Wettbewerbs um hochleistungsfähige Sicherheits-KI und nur wenige Wochen nach der Markteinführung von Anthropics Konkurrenzmodell „Claude Mythos“.

Anzeige

Trusted Access for Cyber: Der neue Sicherheitsrahmen

Die Nutzung von GPT-5.5-Cyber ist an das neu eingeführte Framework „Trusted Access for Cyber“ (TAC) gebunden. Dabei handelt es sich um ein identitäts- und vertrauensbasiertes Zugangssystem, das sicherstellen soll, dass die erweiterten Fähigkeiten des Modells ausschließlich legitimen Verteidigern zur Verfügung stehen. OpenAI gab bekannt, dass der Ansatz durch Gespräche mit nationalen Sicherheitsbehörden auf Bundes- und Staatsebene sowie mit führenden Wirtschaftsvertretern entwickelt wurde.

Das TAC-Framework ermöglicht es verifizierten Experten, das Modell mit einer geringeren Rate an systemseitigen Verweigerungen (Refusals) zu nutzen. In der Standardversion von GPT-5.5 führen technische Anfragen, die potenziell missbrauchbar sind, oft zu einer Blockade durch Sicherheitsfilter. Für Teilnehmer des TAC-Programms werden diese Filter für spezifische defensive Aufgaben gelockert, um eine tiefgreifende Analyse komplexer Bedrohungen zu ermöglichen.

Fokus auf forensische Analyse und Schwachstellen-Triage

GPT-5.5-Cyber ist primär für fünf Kernbereiche der Cybersicherheit optimiert worden. Dazu gehören die Identifizierung und Triage von Software-Schwachstellen, die detaillierte Analyse von Malware-Stämmen sowie das Reverse Engineering von Binärdateien. Zudem unterstützt das Modell die Erstellung von Erkennungslogiken (Detection Engineering) und die Validierung von Sicherheitspatches.

Anzeige

Laut OpenAI soll das Modell in der Lage sein, komplexe Programmierfehler in umfangreichen Code-Basen schneller zu identifizieren als bisherige Werkzeuge. Durch die Integration in den TAC-Sicherheitsrahmen können Verteidiger gezielt Proof-of-Concept-Exploits generieren lassen, um die Wirksamkeit interner Schutzmaßnahmen zu testen, ohne dass das Modell den Dienst aufgrund von Sicherheitsrichtlinien verweigert.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Leistungsvergleich: GPT-5.5 vs. Anthropic Claude Mythos

Erste unabhängige Testergebnisse des UK AI Security Institute (AISI) bescheinigen GPT-5.5-Cyber eine Leistungsfähigkeit, die nahezu auf dem Niveau des aktuellen Marktführers Claude Mythos von Anthropic liegt. In einer 32-stufigen Simulation eines Angriffs auf ein Unternehmensnetzwerk, bekannt unter dem Namen „The Last Ones“, konnte GPT-5.5 die gesamte Kette in zwei von zehn Versuchen autonom abschließen.

Zum Vergleich: Claude Mythos, das als erstes Modell diesen Test erfolgreich absolvierte, erreichte eine Erfolgsquote von drei aus zehn Versuchen. Das AISI schätzt, dass ein menschlicher Experte für die Bewältigung dieser 32 Schritte, von der ersten Aufklärung bis zur vollständigen Übernahme des Netzwerks, etwa 20 Stunden reine Arbeitszeit benötigen würde. GPT-5.5-Cyber bewältigte Expert-Level-Aufgaben in speziellen Capture-The-Flag-Szenarien (CTF) mit einer Erfolgsquote von 71,4 %, womit es leicht vor Claude Mythos (68,6 %) rangiert.

Expert-Level-Fähigkeiten und autonome Simulationen

Die Evaluierungen des UK AI Security Institute zeigen, dass GPT-5.5-Cyber besonders stark im Bereich des automatisierten Reverse Engineering von Rust-Binärdateien und eingebetteter Firmware agiert. In einem dokumentierten Testlauf konnte das Modell eine hochkomplexe Authentifizierungsprüfung innerhalb von etwa zehn Minuten knacken, wofür ein menschlicher Experte unter Einsatz spezialisierter Tools wie Binary Ninja und Z3 etwa zwölf Stunden benötigte.

Das Modell nutzt dabei ein sogenanntes „ReAct agent scaffold“, mit dem es autonom zwischen verschiedenen Analyse-Tools, Bash-Befehlen und Python-Skripten wechselt. Diese Fähigkeit, komplexe Workflows eigenständig zu orchestrieren, wird als wesentlicher Fortschritt gegenüber der Vorgängerversion GPT-5.4-Cyber gewertet. Dennoch scheiterten bisher alle getesteten Modelle an Simulationen für industrielle Kontrollsysteme (Operational Technology, OT), wie sie in Kraftwerken verwendet werden.

Ausschluss krimineller Aktivitäten wie Malware und Zugangsdaten

Trotz der Lockerung von Filtern für TAC-Mitglieder betont OpenAI, dass bestimmte Kategorien von Anfragen weiterhin strikt blockiert werden. Dazu gehören Aktivitäten, die unmittelbar auf kriminelle Handlungen abzielen, wie der Diebstahl von Zugangsdaten, die Verschleierung von Malware-Präsenz (Stealth), das Erreichen dauerhafter Systemkontrolle (Persistence) oder die aktive Ausbeutung von Drittsystemen.

Die KI-Sicherheitsarchitektur soll unterscheiden können, ob ein Nutzer eine Schwachstelle analysiert, um einen Patch zu entwickeln, oder ob er versucht, ein fremdes System zu kompromittieren. Dennoch identifizierten Red-Teaming-Experten des AISI während der Vorabtests Schwachstellen in den Sicherheitsleitplanken, die in Einzelfällen das Abrufen verbotener Inhalte ermöglichten. OpenAI nutzt diese Erkenntnisse laut eigenen Angaben, um die Filter vor dem breiteren Rollout zu schärfen.

OpenAI macht TAC für hunderte Sicherheitsteams weltweit zugänglich

Mit der Veröffentlichung von GPT-5.5-Cyber verfolgt OpenAI eine offenere Distributionsstrategie als der Konkurrent Anthropic. Während Anthropic den Zugang zu seinem Mythos-Modell auf einen sehr kleinen Kreis von etwa 40 bis 50 Organisationen beschränkt, plant OpenAI, TAC für tausende verifizierte Verteidiger und hunderte von Sicherheitsteams weltweit zugänglich zu machen.

Diese Entscheidung wird in der Branche unterschiedlich bewertet. Während Befürworter die Demokratisierung von Hochleistungs-Tools zur Verteidigung kritischer Infrastrukturen begrüßen, warnen Kritiker vor den Risiken, die eine breitere Verfügbarkeit solch potenter Systeme mit sich bringen könnte. OpenAI argumentiert hingegen, dass nur durch den breiten Einsatz der besten Verteidigungswerkzeuge ein Übergewicht zugunsten der Cybersicherheit in der Gesellschaft erreicht werden kann.

Autorenbild Lisa Löw

Lisa

Löw

Junior Online-Redakteurin

IT-Verlag

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.