Cyberkriminalität im KI-Zeitalter

Wie unzensierte Sprachmodelle zur Gefahr werden

Boeses-GPT

Mit dem rasanten Fortschritt im Bereich der generativen KI eröffnen sich nicht nur neue Möglichkeiten für Wirtschaft und Gesellschaft – auch die Schattenseiten dieser Technologie treten immer deutlicher zutage.

Seit dem Start von ChatGPT im November 2022 erkennen Cyberkriminelle zunehmend das Potenzial von Sprachmodellen, um gezielte Angriffe zu planen und durchzuführen. Während offizielle Modelle wie ChatGPT oder Google Bard durch umfangreiche Sicherheitsmechanismen geschützt sind, entstehen im Untergrund immer mehr unzensierte Alternativen – sogenannte „WormGPT“-Modelle.

Anzeige

WormGPT und seine Nachfolger: KI ohne ethische Schranken

Im Juni 2023 wurde auf einschlägigen Cybercrime-Plattformen erstmals „WormGPT“ öffentlich angeboten. Basierend auf dem Open-Source-Modell GPT-J von EleutherAI, bot es eine uneingeschränkte Nutzung – ganz ohne Sicherheitsfilter. Zwar wurde das Projekt nach der Enttarnung des Entwicklers durch einen Journalisten im August desselben Jahres offiziell eingestellt, doch der Grundstein war gelegt: Weitere Varianten wie FraudGPT, EvilGPT, PoisonGPT oder DarkBERT folgten schnell.

Diese Modelle verfolgen das gleiche Prinzip – sie wurden entweder komplett ohne Ethik- und Sicherheitsregeln entwickelt oder gezielt manipuliert, um missbräuchliche Inhalte zu generieren. Besonders perfide: Teilweise wurden sogar legitime KI-Systeme mittels sogenannter „Jailbreaks“ so verändert, dass sie trotz ihrer eingebauten Schutzvorkehrungen auf gefährliche Anfragen reagieren.

Neue Generation von KI-Missbrauch: Wrapper statt Eigenentwicklung

Ein aktueller Bericht des Sicherheitsunternehmens Cato Networks beleuchtet die nächste Evolutionsstufe dieser Bedrohung. Zwei neu entdeckte Varianten von WormGPT basieren auf modernen Sprachmodellen – konkret auf Grok von xAI und Mixtral von Mistral. Dabei handelt es sich nicht um eigenständige KI-Modelle, sondern um sogenannte Wrapper: Programme, die existierende Modelle um eine manipulierte Nutzerschnittstelle ergänzen. Mittels ausgeklügelter System-Prompts werden dabei die Schutzmechanismen der KI gezielt umgangen.

Anzeige

Die neuen Varianten werden über Messaging-Dienste wie Telegram angeboten und vermarktet – ein deutliches Zeichen für die Professionalisierung krimineller KI-Dienste. Angreifer können damit gezielt Phishing-Mails, Schadsoftware oder betrügerische Texte generieren lassen, ohne selbst über technisches Know-how verfügen zu müssen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wie Unternehmen reagieren sollten

Die Erkenntnisse aus dem Bericht von Cato Networks zeigen eindrücklich, wie schnell sich das Bedrohungsspektrum im digitalen Raum verändert. KI-basierte Angriffe sind nicht nur effektiver, sondern auch schwerer zu erkennen als herkömmliche Methoden. Für Unternehmen bedeutet das, dass herkömmliche Schutzmaßnahmen nicht mehr ausreichen.

Cato rät zu einem mehrschichtigen Sicherheitsansatz:

  • Moderne Erkennungstechnologien (Threat Detection & Response) zur frühzeitigen Identifikation verdächtiger Aktivitäten.
  • Zero-Trust-Strategien, die den Zugriff auf Systeme und Daten strikt regeln.
  • Schulungen für Mitarbeitende, insbesondere in Bezug auf KI-generierte Phishing-Versuche.
  • Regelmäßige Überprüfung und Kontrolle von KI-Tools im betrieblichen Einsatz.

Die KI wird zum Werkzeug – für beide Seiten

Während generative KI-Modelle enorme Chancen bieten, wächst die Bedrohung durch ihre missbräuchliche Nutzung rasant. Unzensierte LLMs wie WormGPT machen deutlich, dass Cyberkriminalität längst eine neue Qualität erreicht hat. Der technologische Vorsprung wird zunehmend zur Waffe – und erfordert auf Seiten der Verteidiger ebenso innovative wie entschlossene Gegenmaßnahmen.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.