Künstliche Intelligenz hält zunehmend Einzug in die Werkzeuge von Cyberkriminellen und staatlich gesteuerten Akteuren.
Laut einem neuen Sicherheitsbericht des US-Unternehmens OpenAI setzen Angreifer KI inzwischen gezielt ein, um bestehende Methoden effizienter zu gestalten – etwa bei Phishing-Kampagnen, Schadsoftware oder der Erstellung von Desinformationsinhalten.
Die Beobachtung zeigt: Anstatt völlig neue Angriffstechniken zu entwickeln, integrieren viele Bedrohungsakteure KI-Modelle in ihre bereits bestehenden Abläufe, um schneller oder präziser vorzugehen.
Bekannte Methoden, neue Werkzeuge
Seit Anfang 2024 überwacht OpenAI den Missbrauch seiner Systeme systematisch. Dabei geht es um den Schutz vor organisierter Kriminalität, Desinformationskampagnen und staatlichen Überwachungsversuchen. Bislang hat das Unternehmen über 40 Netzwerke aufgedeckt und gesperrt, die gegen Nutzungsrichtlinien verstießen.
Die Angriffe stammen unter anderem aus Russland, Nordkorea und China sowie aus Betrugsnetzwerken in Nigeria, Kambodscha und Myanmar. Dabei nutzen Täter große Sprachmodelle, um Schadsoftware zu verfeinern oder überzeugendere Phishing-Texte zu erzeugen. Besonders häufig wird KI als Werkzeug zur Effizienzsteigerung eingesetzt – etwa zum automatisierten Erstellen von Texten, Übersetzungen oder Code-Vorlagen.
Trotz der Zunahme solcher Fälle betont OpenAI, dass die beobachteten Akteure bislang keine völlig neuen Angriffsfähigkeiten durch KI gewonnen haben. Vielmehr beschleunigen sie bekannte Prozesse und setzen Modelle wie ChatGPT als Hilfsmittel ein. Beispiele reichen von der Anpassung von Trojanern bis hin zur Erzeugung von Phishing-Seiten mit realistisch wirkenden Login-Formularen.
In einem Fall nutzten Angreifer in China Sprachmodelle, um Verschlüsselungsmechanismen und Komponenten für Fernzugriffe zu planen, während russischsprachige Gruppen KI-Tools zur Entwicklung von Schadsoftware wie Remote-Access-Trojanern oder Passwortdieben einsetzten.
Missbrauch für Überwachung und Propaganda
Neben Cyberangriffen spielt KI zunehmend eine Rolle in politischen Einflusskampagnen. OpenAI entdeckte mehrere chinesische Konten, die Modelle zur Überwachung sozialer Netzwerke oder zur Erstellung von Profilen mutmaßlicher Regimekritiker nutzten. Auch in Russland wurden KI-gestützte Desinformationskampagnen beobachtet, bei denen automatisiert Artikel, Social-Media-Beiträge und Videos für gefälschte Nachrichtenseiten erstellt wurden.
Ein bemerkenswertes Detail: Manche Akteure versuchen inzwischen, typische sprachliche Merkmale von KI-Texten zu entfernen – etwa bestimmte Satzzeichen – um Entdeckungssysteme zu umgehen.
Nicht nur staatliche Gruppen, auch internationale Betrugsnetzwerke greifen auf KI zurück. In mehreren Fällen nutzten Täter in Nigeria und Südostasien die Technologie, um gefälschte Webseiten, Social-Media-Profile oder Anzeigen zu erstellen, um Opfer in betrügerische Investment- oder Jobfallen zu locken. Die meisten dieser Aktivitäten blieben jedoch technisch einfach, was zeigt, dass KI vor allem zur Automatisierung bewährter Betrugsmethoden dient.
Maßnahmen gegen Missbrauch
OpenAI reagiert auf solche Fälle mit gezielten Sperrungen und teilt Informationen mit Partnern aus der Sicherheitsbranche, um Missbrauch frühzeitig zu stoppen. Ziel ist es, die Modelle kontinuierlich gegen Manipulation abzusichern und Nutzer besser zu schützen.
Nach Angaben des Unternehmens bleibt die Bekämpfung von KI-Missbrauch eine zentrale Aufgabe: Die Systeme sollen so gestaltet werden, dass sie gesellschaftlichen Nutzen fördern, ohne als Werkzeug für Überwachung, Kriminalität oder Desinformation missbraucht zu werden.