Hoher Automatisierungsgrad

Anthropic: Claude Code ermöglichte autonome Cyberspionage

Claude Code
Bildquelle: Robert Way/Shutterstock.com

Der Claude Code-Entwickler Anthropic berichtet von ausgefeilten Angriffen auf Dutzende Organisationen weltweit. Die KI übernahm dabei offenbar den Großteil der Arbeit weitgehend autonom.

Das KI-Unternehmen hat nach eigenen Angaben eine Spionagekampagne aufgedeckt, bei der Angreifer mit mutmaßlichen Verbindungen zur chinesischen Regierung das KI-Tool Claude Code massiv für Cyberangriffe missbrauchten. Die bereits im September entdeckten Attacken richteten sich gegen knapp 30 Organisationen aus Chemie-, Finanz-, Regierungs- und Technologiesektor weltweit.

Anzeige

Täuschung der KI-Schutzmechanismen

Die Angreifer entwickelten ein spezielles Framework, um Claude Code für ihre Zwecke einzuspannen. Dabei umgingen sie die Sicherheitsvorkehrungen der KI durch eine raffinierte Täuschung: Sie gaben sich als Mitarbeiter eines Cybersecurity-Unternehmens aus und teilten komplexe Angriffe in viele kleine, einzeln betrachtet unverdächtige Teilaufgaben auf. So blieb der KI der eigentliche Gesamtkontext verborgen.

Die KI wurde zur Erkundung der Zielumgebungen eingesetzt, identifizierte wertvolle Systeme und suchte nach Schwachstellen. Anschließend entwickelte Claude Code Exploits, stahl Zugangsdaten und verschaffte sich damit Zugriff auf weitere Bereiche der kompromittierten Netzwerke. Laut Anthropic wurden Accounts mit höchsten Berechtigungen identifiziert, Backdoors installiert und Daten abgegriffen.

Automatisierungsgrad von bis zu 90 Prozent

Nach Angaben von Anthropic erledigte die KI 80 bis 90 Prozent der Kampagne eigenständig. Menschliche Hacker mussten nur an etwa vier bis sechs kritischen Punkten pro Angriff eingreifen. Dank der Fähigkeit von Claude, Tausende Anfragen pro Sekunde zu verarbeiten, liefen die Attacken erheblich schneller ab als bei rein manueller Durchführung. Allerdings stießen die Angreifer auch an Grenzen: KI-typische Probleme wie halluzinierte Zugangsdaten verhinderten eine vollständige Automatisierung.

Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Neue Dimension der Bedrohung

Anthropic ordnet den Vorfall als Weiterentwicklung der sogenannten “Vibe Hacking”-Angriffe ein, die das Unternehmen bereits früher im Jahr beobachtet hatte. Mit entsprechender Vorbereitung könnten Angreifer agentische KI-Systeme nun nutzen, um Aufgaben zu bewältigen, für die bisher ganze Teams erfahrener Hacker nötig waren – von der Systemanalyse über die Exploit-Entwicklung bis zur effizienten Auswertung großer Datenmengen.

Anthropic reagierte innerhalb von zehn Tagen: Das Unternehmen analysierte Umfang und Art der Angriffe, sperrte die identifizierten Accounts und informierte die betroffenen Organisationen. Nur eine kleine Anzahl der anvisierten Ziele wurde tatsächlich kompromittiert.

Lars

Becker

Redakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.