Über Drittanbieter

Claude Mythos: Discord-Gruppe knackt Anthropics KI-Festung

Claude-Mythos
quelle-gguy-Shutterstock.com

Claude Mythos sollte unter Verschluss bleiben. Doch eine Discord-Gruppe nutzte ein Drittanbieter-Leck für den Zugriff. Ist die KI-Waffe außer Kontrolle?

Update vom 23.04.2026: Das San-Francisco-Unternehmen Anthropic steht vor einem handfesten Sicherheitsproblem. Eine Gruppe privater Ermittler aus einem Discord-Forum hat sich unbefugten Zugriff auf das neueste und zugleich gefährlichste KI-Modell des Unternehmens verschafft: „Claude Mythos“. Das berichtete Bloomberg. Während die Firmenleitung versucht, den Vorfall als begrenztes Problem bei einem Drittanbieter darzustellen, wächst in Sicherheitskreisen die Unruhe. Denn Mythos ist kein gewöhnlicher Chatbot, sondern eine KI, die speziell darauf trainiert wurde, Sicherheitslücken in Software zu finden und auszunutzen. Das ist eine Fähigkeit, die das Modell zur potenziellen Cyber-Waffe macht.

Anzeige

Die Lücke im System: URL-Lotto und unvorsichtige Partner

Der Vorfall ereignete sich Ende Februar 2026, zeitgleich mit dem Start von „Project Glasswing“. In diesem exklusiven Programm gewährt Anthropic etwa 40 ausgewählten Organisationen, darunter Tech-Giganten wie Amazon, Apple, Google, Microsoft und Cisco sowie staatlichen Stellen, Zugriff auf die Mythos-Vorschau. Das Ziel: Die Unternehmen sollen mithilfe der KI ihre eigenen Systeme auf Schwachstellen prüfen und autonom patchen.

Doch die „Festung Anthropic“ erwies sich an einer unerwarteten Stelle als löchrig. Nach Informationen von Bloomberg und internen Dokumenten verschaffte sich die Discord-Gruppe den Zugang nicht durch einen direkten Angriff auf die Kerninfrastruktur von Anthropic. Stattdessen nutzten die Akteure eine Schwachstelle in der Umgebung eines namentlich nicht genannten Drittanbieters aus, den Anthropic für Evaluierungen einsetzt.

Die Methode war verblüffend simpel: Ein Mitglied der Discord-Gruppe arbeitete offenbar für diesen Dienstleister. Mit diesem Insider-Wissen und der Kenntnis über interne Namenskonventionen begannen die Nutzer mit dem sogenannten „URL-Guessing“. Sie errieten schlicht die Web-Adressen der versteckten Endpunkte des Modells. Zusätzliche Informationen aus einem früheren Datenleck beim Recruiting-Dienstleister Mercor Inc. halfen ihnen dabei, die Serverstrukturen korrekt zu identifizieren.

Anzeige

Claude Mythos „zu gefährlich für die breite Öffentlichkeit“

Dass dieser Vorfall Schlagzeilen macht, liegt an der schieren Zerstörungskraft des Modells. Anthropic selbst stuft Mythos als „zu gefährlich für die breite Öffentlichkeit“ ein. In Testreihen, die unter anderem vom britischen AI Security Institute (AISI) begleitet wurden, bewies die KI Fähigkeiten, die menschliche Hacker-Teams vor Neid erblassen lassen.

Das Modell ist in der Lage, innerhalb weniger Stunden Tausende von Sicherheitslücken in komplexer Software zu finden. Berichten zufolge entdeckte Mythos kritische Schwachstellen in jedem gängigen Betriebssystem, von Windows über macOS bis hin zu Linux. In dem als extrem sicher geltenden OpenBSD förderte die KI einen Fehler zutage, der dort seit 27 Jahren unentdeckt geblieben war.

Das Problem ist die sogenannte „Dual-Use“-Natur der Technologie: Dieselbe KI, die einem Unternehmen hilft, eine Lücke zu schließen, kann von einem Hacker genutzt werden, um eine perfekte Angriffskette zu schmieden. Experten warnen, dass Mythos autonom vier oder fünf kleine Fehler so miteinander verknüpfen kann, dass am Ende eine vollständige Übernahme des Zielsystems steht.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Trump-Administration und die schwarze Liste

Der Zeitpunkt des Lecks könnte für Anthropic kaum schlechter sein. Das Unternehmen befindet sich in einem komplizierten geopolitischen Tauziehen. Im Februar 2026 setzte das Pentagon Anthropic auf eine schwarze Liste und stufte die Firma als „Risiko für die nationale Sicherheit“ ein. Der Vorwurf: CEO Dario Amodei weigerte sich, seine Modelle uneingeschränkt für militärische Zwecke und offensive Operationen zur Verfügung zu stellen.

Erst vor wenigen Tagen schien Entspannung in Sicht. Amodei traf sich im Weißen Haus mit Vertretern der Trump-Administration, um über eine Aufhebung der Blockade zu verhandeln. Sogar der Präsident selbst äußerte sich am Freitag vorsichtig optimistisch über einen möglichen Deal. Der nun bekannt gewordene unbefugte Zugriff durch eine Discord-Gruppe liefert den Kritikern des Unternehmens jedoch neue Munition. Sie argumentieren, dass Anthropic nicht einmal die Integrität seiner eigenen Testumgebungen garantieren kann. Regulierungsbehörden in Australien und Südkorea befürchten, dass ein Modell wie Mythos die Stabilität ganzer Finanzsysteme gefährden könnte, wenn die offensiven Fähigkeiten unkontrolliert verbreitet werden.

Fake-News im Windschatten des Vorfalls

Während die offizielle Untersuchung läuft, versuchen Kriminelle, die Verunsicherung im Netz auszunutzen. Ein Impersonator der berüchtigten Hackergruppe ShinyHunters behauptete am Mittwoch auf X (ehemals Twitter), für den Einbruch verantwortlich zu sein. Als Beweis kursierten Screenshots eines angeblichen Mythos-Dashboards mit Kostenanalysen und Performance-Daten.

Sicherheitsforscher entlarvten diese Bilder jedoch schnell als „AI Slop“: täuschend echte, aber KI-generierte Fälschungen. Dies unterstreicht eine weitere Dimension der Krise: In einem echten Sicherheitsvorfall wird es immer schwieriger, zwischen tatsächlichen Beweisen und generierter Desinformation zu unterscheiden. Anthropic betonte, es gebe keine Hinweise darauf, dass Kundendaten kompromittiert wurden oder der Zugriff über die Drittanbieter-Umgebung hinausging.

Ursprüngliche Meldung: Mythos: Unbefugte hatten Zugang zu Anthropics Super-KI

Einige wenige Unbefugte mit Kenntnis von Anthropic-Systemen hätten sich Zugang zu dem Modell mit dem Namen Claude Mythos Preview verschafft, berichtete der Finanzdienst Bloomberg. Von Anthropic hieß es, man prüfe den Bericht.

Mythos gelang es laut Anthropic, zum Teil über Jahrzehnte unentdeckt gebliebene Sicherheitslücken in verschiedener Software zu finden. In den falschen Händen könnte das KI-Modell deshalb zur Entwicklung gefährlicher Cyberwaffen führen. Anthropic hat keine Pläne, Mythos zu veröffentlichen – und gewährt bisher Zugang für ausgewählte Unternehmen und Organisationen, damit sie Schwachstellen in ihrer Software schließen können. So gaben die Entwickler des Web-Browsers Firefox gerade erst bekannt, dass sie mit Mythos 271 Lücken schließen konnten.

Bloomberg zufolge war unter den unbefugten Nutzern ein Mitarbeiter eines externen Dienstleisters von Anthropic mit Zugang zu Systemen der KI-Firma. Geholfen habe den Nutzern auch Wissen darüber, wie Anthropic vorherige Modelle gespeichert habe. Das Unternehmen teilte Bloomberg mit, man habe bisher keine Hinweise darauf, dass es Zugang zu dem Modell abseits der Systeme des Dienstleisters gegeben habe.

dpa

Autorenbild Lisa Löw

Lisa

Löw

Junior Online-Redakteurin

IT-Verlag

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.