OpenAI veröffentlicht GPT-5.5-Cyber für Sicherheitsteams. Das Modell unterstützt Abwehr-Tasks wie Malware-Analyse, blockiert aber kriminellen Missbrauch.
OpenAI hat eine spezialisierte Version seines neuesten KI-Modells, GPT-5.5-Cyber, für einen begrenzten Kreis verifizierter Sicherheitsexperten freigegeben. Das Modell, das von OpenAI als das bisher „smarteste und intuitivste“ System des Unternehmens beschrieben wird, ist gezielt auf die Anforderungen der defensiven Cybersicherheit zugeschnitten. Die Veröffentlichung erfolgt vor dem Hintergrund eines intensiven Wettbewerbs um hochleistungsfähige Sicherheits-KI und nur wenige Wochen nach der Markteinführung von Anthropics Konkurrenzmodell „Claude Mythos“.
Trusted Access for Cyber: Der neue Sicherheitsrahmen
Die Nutzung von GPT-5.5-Cyber ist an das neu eingeführte Framework „Trusted Access for Cyber“ (TAC) gebunden. Dabei handelt es sich um ein identitäts- und vertrauensbasiertes Zugangssystem, das sicherstellen soll, dass die erweiterten Fähigkeiten des Modells ausschließlich legitimen Verteidigern zur Verfügung stehen. OpenAI gab bekannt, dass der Ansatz durch Gespräche mit nationalen Sicherheitsbehörden auf Bundes- und Staatsebene sowie mit führenden Wirtschaftsvertretern entwickelt wurde.
Das TAC-Framework ermöglicht es verifizierten Experten, das Modell mit einer geringeren Rate an systemseitigen Verweigerungen (Refusals) zu nutzen. In der Standardversion von GPT-5.5 führen technische Anfragen, die potenziell missbrauchbar sind, oft zu einer Blockade durch Sicherheitsfilter. Für Teilnehmer des TAC-Programms werden diese Filter für spezifische defensive Aufgaben gelockert, um eine tiefgreifende Analyse komplexer Bedrohungen zu ermöglichen.
Fokus auf forensische Analyse und Schwachstellen-Triage
GPT-5.5-Cyber ist primär für fünf Kernbereiche der Cybersicherheit optimiert worden. Dazu gehören die Identifizierung und Triage von Software-Schwachstellen, die detaillierte Analyse von Malware-Stämmen sowie das Reverse Engineering von Binärdateien. Zudem unterstützt das Modell die Erstellung von Erkennungslogiken (Detection Engineering) und die Validierung von Sicherheitspatches.
Laut OpenAI soll das Modell in der Lage sein, komplexe Programmierfehler in umfangreichen Code-Basen schneller zu identifizieren als bisherige Werkzeuge. Durch die Integration in den TAC-Sicherheitsrahmen können Verteidiger gezielt Proof-of-Concept-Exploits generieren lassen, um die Wirksamkeit interner Schutzmaßnahmen zu testen, ohne dass das Modell den Dienst aufgrund von Sicherheitsrichtlinien verweigert.
Leistungsvergleich: GPT-5.5 vs. Anthropic Claude Mythos
Erste unabhängige Testergebnisse des UK AI Security Institute (AISI) bescheinigen GPT-5.5-Cyber eine Leistungsfähigkeit, die nahezu auf dem Niveau des aktuellen Marktführers Claude Mythos von Anthropic liegt. In einer 32-stufigen Simulation eines Angriffs auf ein Unternehmensnetzwerk, bekannt unter dem Namen „The Last Ones“, konnte GPT-5.5 die gesamte Kette in zwei von zehn Versuchen autonom abschließen.
Zum Vergleich: Claude Mythos, das als erstes Modell diesen Test erfolgreich absolvierte, erreichte eine Erfolgsquote von drei aus zehn Versuchen. Das AISI schätzt, dass ein menschlicher Experte für die Bewältigung dieser 32 Schritte, von der ersten Aufklärung bis zur vollständigen Übernahme des Netzwerks, etwa 20 Stunden reine Arbeitszeit benötigen würde. GPT-5.5-Cyber bewältigte Expert-Level-Aufgaben in speziellen Capture-The-Flag-Szenarien (CTF) mit einer Erfolgsquote von 71,4 %, womit es leicht vor Claude Mythos (68,6 %) rangiert.
Expert-Level-Fähigkeiten und autonome Simulationen
Die Evaluierungen des UK AI Security Institute zeigen, dass GPT-5.5-Cyber besonders stark im Bereich des automatisierten Reverse Engineering von Rust-Binärdateien und eingebetteter Firmware agiert. In einem dokumentierten Testlauf konnte das Modell eine hochkomplexe Authentifizierungsprüfung innerhalb von etwa zehn Minuten knacken, wofür ein menschlicher Experte unter Einsatz spezialisierter Tools wie Binary Ninja und Z3 etwa zwölf Stunden benötigte.
Das Modell nutzt dabei ein sogenanntes „ReAct agent scaffold“, mit dem es autonom zwischen verschiedenen Analyse-Tools, Bash-Befehlen und Python-Skripten wechselt. Diese Fähigkeit, komplexe Workflows eigenständig zu orchestrieren, wird als wesentlicher Fortschritt gegenüber der Vorgängerversion GPT-5.4-Cyber gewertet. Dennoch scheiterten bisher alle getesteten Modelle an Simulationen für industrielle Kontrollsysteme (Operational Technology, OT), wie sie in Kraftwerken verwendet werden.
Ausschluss krimineller Aktivitäten wie Malware und Zugangsdaten
Trotz der Lockerung von Filtern für TAC-Mitglieder betont OpenAI, dass bestimmte Kategorien von Anfragen weiterhin strikt blockiert werden. Dazu gehören Aktivitäten, die unmittelbar auf kriminelle Handlungen abzielen, wie der Diebstahl von Zugangsdaten, die Verschleierung von Malware-Präsenz (Stealth), das Erreichen dauerhafter Systemkontrolle (Persistence) oder die aktive Ausbeutung von Drittsystemen.
Die KI-Sicherheitsarchitektur soll unterscheiden können, ob ein Nutzer eine Schwachstelle analysiert, um einen Patch zu entwickeln, oder ob er versucht, ein fremdes System zu kompromittieren. Dennoch identifizierten Red-Teaming-Experten des AISI während der Vorabtests Schwachstellen in den Sicherheitsleitplanken, die in Einzelfällen das Abrufen verbotener Inhalte ermöglichten. OpenAI nutzt diese Erkenntnisse laut eigenen Angaben, um die Filter vor dem breiteren Rollout zu schärfen.
OpenAI macht TAC für hunderte Sicherheitsteams weltweit zugänglich
Mit der Veröffentlichung von GPT-5.5-Cyber verfolgt OpenAI eine offenere Distributionsstrategie als der Konkurrent Anthropic. Während Anthropic den Zugang zu seinem Mythos-Modell auf einen sehr kleinen Kreis von etwa 40 bis 50 Organisationen beschränkt, plant OpenAI, TAC für tausende verifizierte Verteidiger und hunderte von Sicherheitsteams weltweit zugänglich zu machen.
Diese Entscheidung wird in der Branche unterschiedlich bewertet. Während Befürworter die Demokratisierung von Hochleistungs-Tools zur Verteidigung kritischer Infrastrukturen begrüßen, warnen Kritiker vor den Risiken, die eine breitere Verfügbarkeit solch potenter Systeme mit sich bringen könnte. OpenAI argumentiert hingegen, dass nur durch den breiten Einsatz der besten Verteidigungswerkzeuge ein Übergewicht zugunsten der Cybersicherheit in der Gesellschaft erreicht werden kann.