Große Sprachmodelle wie ChatGPT und Llama 2 können mehr als nur Konversation führen: Sie zeigen inzwischen auch Potenzial in der Cybersicherheit.
Ein Forschungsteam unter der Leitung von Simon Pietro Romano von der Universität Neapel Federico II hat erstmals demonstriert, dass solche KI-Modelle in der Lage sind, funktionierende Exploits weitgehend autonom zu entwickeln (via Pressetext).
Was ist ein Exploit – und warum ist das relevant?
Ein Exploit bezeichnet eine Methode, mit der Schwachstellen in Software ausgenutzt werden können – häufig mit dem Ziel, unerlaubten Zugriff zu erhalten oder ein System zu manipulieren. Solche Sicherheitslücken entstehen oft unbeabsichtigt während der Programmierung. Bisher war das Auffinden und Ausnutzen dieser Schwächen vor allem IT-Sicherheitsexperten mit fundierten Programmierkenntnissen vorbehalten.
LLMs im Dialog – ein neuer Ansatz
Romano und sein Team wählten einen ungewöhnlichen Weg: Sie ließen zwei Sprachmodelle – ChatGPT und Llama 2 – miteinander „diskutieren“, um gemeinsam ein mögliches Angriffsszenario zu erarbeiten. Dabei übernahmen die Modelle unterschiedliche Rollen und durchliefen gezielt fünf Phasen, die in der Sicherheitsforschung als zentral für die Exploit-Entwicklung gelten.
Diese Phasen umfassen:
- Analyse der Zielsoftware,
- Identifikation potenzieller Schwachstellen,
- Entwicklung eines konkreten Angriffsplans,
- Simulation des Systemverhaltens,
- Generierung des schadhaften Codes.
Das Ergebnis war bemerkenswert: Die KI-gestützte Zusammenarbeit führte zu einem funktionierenden Exploit-Code für einen sogenannten Buffer Overflow – einem Angriff, bei dem gezielt Speicherbereiche überschrieben werden, um Programme zu manipulieren.
Chancen für die Sicherheit – oder Gefahr für Systeme?
Die Studie, die in der Fachzeitschrift Computer Networks veröffentlicht wurde, stellt einen bedeutenden Fortschritt dar. Laut Romano zeigt der Versuch eindeutig, dass die automatisierte Generierung von Exploits durch KI grundsätzlich möglich ist.
Dabei birgt der Ansatz sowohl Risiken als auch Chancen. Einerseits könnten solche Methoden missbraucht werden, etwa von Angreifern, die sich Zugang zu fremden Systemen verschaffen wollen. Andererseits könnten genau dieselben Werkzeuge genutzt werden, um Sicherheitslücken früher zu erkennen und gezielt zu schließen – bevor sie ausgenutzt werden.
Ob als Werkzeug zur Absicherung von Software oder als potenzielle Bedrohung – der Einsatz großer Sprachmodelle in der IT-Sicherheit steht noch am Anfang. Die Arbeit des italienischen Forschungsteams eröffnet neue Perspektiven, wirft aber auch grundlegende ethische und technische Fragen auf. Die kommenden Jahre werden zeigen, wie diese Technologie eingesetzt – oder reguliert – werden wird.