Doppelschneidige Entwicklung mit großem Potenzial

LLMs können Hackern das Handwerk legen

Large Language Models, LLMs, Storage

Große Sprachmodelle wie ChatGPT und Llama 2 können mehr als nur Konversation führen: Sie zeigen inzwischen auch Potenzial in der Cybersicherheit.

Ein Forschungsteam unter der Leitung von Simon Pietro Romano von der Universität Neapel Federico II hat erstmals demonstriert, dass solche KI-Modelle in der Lage sind, funktionierende Exploits weitgehend autonom zu entwickeln (via Pressetext).

Anzeige

Was ist ein Exploit – und warum ist das relevant?

Ein Exploit bezeichnet eine Methode, mit der Schwachstellen in Software ausgenutzt werden können – häufig mit dem Ziel, unerlaubten Zugriff zu erhalten oder ein System zu manipulieren. Solche Sicherheitslücken entstehen oft unbeabsichtigt während der Programmierung. Bisher war das Auffinden und Ausnutzen dieser Schwächen vor allem IT-Sicherheitsexperten mit fundierten Programmierkenntnissen vorbehalten.

LLMs im Dialog – ein neuer Ansatz

Romano und sein Team wählten einen ungewöhnlichen Weg: Sie ließen zwei Sprachmodelle – ChatGPT und Llama 2 – miteinander „diskutieren“, um gemeinsam ein mögliches Angriffsszenario zu erarbeiten. Dabei übernahmen die Modelle unterschiedliche Rollen und durchliefen gezielt fünf Phasen, die in der Sicherheitsforschung als zentral für die Exploit-Entwicklung gelten.

Diese Phasen umfassen:

Anzeige
  1. Analyse der Zielsoftware,
  2. Identifikation potenzieller Schwachstellen,
  3. Entwicklung eines konkreten Angriffsplans,
  4. Simulation des Systemverhaltens,
  5. Generierung des schadhaften Codes.

Das Ergebnis war bemerkenswert: Die KI-gestützte Zusammenarbeit führte zu einem funktionierenden Exploit-Code für einen sogenannten Buffer Overflow – einem Angriff, bei dem gezielt Speicherbereiche überschrieben werden, um Programme zu manipulieren.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Chancen für die Sicherheit – oder Gefahr für Systeme?

Die Studie, die in der Fachzeitschrift Computer Networks veröffentlicht wurde, stellt einen bedeutenden Fortschritt dar. Laut Romano zeigt der Versuch eindeutig, dass die automatisierte Generierung von Exploits durch KI grundsätzlich möglich ist.

Dabei birgt der Ansatz sowohl Risiken als auch Chancen. Einerseits könnten solche Methoden missbraucht werden, etwa von Angreifern, die sich Zugang zu fremden Systemen verschaffen wollen. Andererseits könnten genau dieselben Werkzeuge genutzt werden, um Sicherheitslücken früher zu erkennen und gezielt zu schließen – bevor sie ausgenutzt werden.

Ob als Werkzeug zur Absicherung von Software oder als potenzielle Bedrohung – der Einsatz großer Sprachmodelle in der IT-Sicherheit steht noch am Anfang. Die Arbeit des italienischen Forschungsteams eröffnet neue Perspektiven, wirft aber auch grundlegende ethische und technische Fragen auf. Die kommenden Jahre werden zeigen, wie diese Technologie eingesetzt – oder reguliert – werden wird.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.