KI wird Teil der Angriffsstrategien

OpenAI: Bedrohungsakteure setzen auf ChatGPT

Openai
Bildquelle: JarTee / Shutterstock.com

Künstliche Intelligenz hält zunehmend Einzug in die Werkzeuge von Cyberkriminellen und staatlich gesteuerten Akteuren.

Laut einem neuen Sicherheitsbericht des US-Unternehmens OpenAI setzen Angreifer KI inzwischen gezielt ein, um bestehende Methoden effizienter zu gestalten – etwa bei Phishing-Kampagnen, Schadsoftware oder der Erstellung von Desinformationsinhalten.

Anzeige

Die Beobachtung zeigt: Anstatt völlig neue Angriffstechniken zu entwickeln, integrieren viele Bedrohungsakteure KI-Modelle in ihre bereits bestehenden Abläufe, um schneller oder präziser vorzugehen.

Bekannte Methoden, neue Werkzeuge

Seit Anfang 2024 überwacht OpenAI den Missbrauch seiner Systeme systematisch. Dabei geht es um den Schutz vor organisierter Kriminalität, Desinformationskampagnen und staatlichen Überwachungsversuchen. Bislang hat das Unternehmen über 40 Netzwerke aufgedeckt und gesperrt, die gegen Nutzungsrichtlinien verstießen.

Die Angriffe stammen unter anderem aus Russland, Nordkorea und China sowie aus Betrugsnetzwerken in Nigeria, Kambodscha und Myanmar. Dabei nutzen Täter große Sprachmodelle, um Schadsoftware zu verfeinern oder überzeugendere Phishing-Texte zu erzeugen. Besonders häufig wird KI als Werkzeug zur Effizienzsteigerung eingesetzt – etwa zum automatisierten Erstellen von Texten, Übersetzungen oder Code-Vorlagen.

Anzeige

Trotz der Zunahme solcher Fälle betont OpenAI, dass die beobachteten Akteure bislang keine völlig neuen Angriffsfähigkeiten durch KI gewonnen haben. Vielmehr beschleunigen sie bekannte Prozesse und setzen Modelle wie ChatGPT als Hilfsmittel ein. Beispiele reichen von der Anpassung von Trojanern bis hin zur Erzeugung von Phishing-Seiten mit realistisch wirkenden Login-Formularen.

In einem Fall nutzten Angreifer in China Sprachmodelle, um Verschlüsselungsmechanismen und Komponenten für Fernzugriffe zu planen, während russischsprachige Gruppen KI-Tools zur Entwicklung von Schadsoftware wie Remote-Access-Trojanern oder Passwortdieben einsetzten.

Missbrauch für Überwachung und Propaganda

Neben Cyberangriffen spielt KI zunehmend eine Rolle in politischen Einflusskampagnen. OpenAI entdeckte mehrere chinesische Konten, die Modelle zur Überwachung sozialer Netzwerke oder zur Erstellung von Profilen mutmaßlicher Regimekritiker nutzten. Auch in Russland wurden KI-gestützte Desinformationskampagnen beobachtet, bei denen automatisiert Artikel, Social-Media-Beiträge und Videos für gefälschte Nachrichtenseiten erstellt wurden.

Ein bemerkenswertes Detail: Manche Akteure versuchen inzwischen, typische sprachliche Merkmale von KI-Texten zu entfernen – etwa bestimmte Satzzeichen – um Entdeckungssysteme zu umgehen.

Nicht nur staatliche Gruppen, auch internationale Betrugsnetzwerke greifen auf KI zurück. In mehreren Fällen nutzten Täter in Nigeria und Südostasien die Technologie, um gefälschte Webseiten, Social-Media-Profile oder Anzeigen zu erstellen, um Opfer in betrügerische Investment- oder Jobfallen zu locken. Die meisten dieser Aktivitäten blieben jedoch technisch einfach, was zeigt, dass KI vor allem zur Automatisierung bewährter Betrugsmethoden dient.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Maßnahmen gegen Missbrauch

OpenAI reagiert auf solche Fälle mit gezielten Sperrungen und teilt Informationen mit Partnern aus der Sicherheitsbranche, um Missbrauch frühzeitig zu stoppen. Ziel ist es, die Modelle kontinuierlich gegen Manipulation abzusichern und Nutzer besser zu schützen.

Nach Angaben des Unternehmens bleibt die Bekämpfung von KI-Missbrauch eine zentrale Aufgabe: Die Systeme sollen so gestaltet werden, dass sie gesellschaftlichen Nutzen fördern, ohne als Werkzeug für Überwachung, Kriminalität oder Desinformation missbraucht zu werden.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.