Künstliche Intelligenz ist längst nicht mehr nur ein Werkzeug für Forschung oder Produktivität. Auch im digitalen Untergrund hat sie sich etabliert.
Eine aktuelle Analyse von Trend Micro zeigt, dass KI-gestützte Cyberkriminalität ihre experimentelle Phase hinter sich gelassen hat und zunehmend nach professionellen Maßstäben organisiert ist. Statt spektakulärer Einzelaktionen dominiert heute ein stabiler, planbarer Einsatz von KI in bestehenden kriminellen Strukturen.
Vom Experiment zum Geschäftsmodell
Die Untersuchung mit dem Titel Criminal AI in 2025: The Year the Underground Went Pro basiert auf der Auswertung von Untergrunddiensten, Schadsoftware und realen Angriffskampagnen rund um den Jahreswechsel. Das zentrale Ergebnis: Cyberkriminelle setzen nicht mehr auf technische Spielereien, sondern auf Effizienz. KI wird genutzt, um bewährte Methoden günstiger, skalierbarer und zuverlässiger zu machen – etwa bei Betrugsmaschen, der Entwicklung von Malware oder bei Identitätsmanipulationen.
Dabei zeigt sich eine klare Verschiebung: Was früher technisches Spezialwissen erforderte, ist heute oft als Dienst verfügbar. Viele KI-gestützte Werkzeuge lassen sich mieten, anpassen und mehrfach einsetzen. Damit sinkt die Einstiegshürde für kriminelle Akteure erheblich.
Etablierte Plattformen statt eigener Modelle
Ein auffälliger Trend ist die Konsolidierung im kriminellen KI-Umfeld. Zwar tauchen in Foren regelmäßig neue, angeblich unregulierte KI-Tools auf, doch nur wenige halten sich dauerhaft. Erfolgreich sind vor allem Ansätze, die bestehende KI-Plattformen missbrauchen – etwa durch manipulierte Eingaben oder gezielte Umgehung von Schutzmechanismen. Eigene Modelle zu entwickeln lohnt sich für Kriminelle kaum, wenn sie auf die Infrastruktur kommerzieller Anbieter zurückgreifen können.
Adaptive Schadsoftware in den Startlöchern
Parallel dazu zeichnen sich erste Entwicklungen bei KI-gestützter Malware ab. In einigen Fällen wird bösartiger Code dynamisch über KI-Abfragen erzeugt oder verändert. Diese Ansätze sind aktuell noch technisch begrenzt, deuten aber auf eine neue Generation von Schadsoftware hin, die sich flexibel an unterschiedliche Umgebungen anpassen kann. Langfristig könnte dies klassische Signatur-basierte Schutzmechanismen weiter unter Druck setzen.
Deepfakes werden alltäglich
Besonders sichtbar ist der Fortschritt bei Deepfake-Technologien. Werkzeuge für Stimmenklonen, Gesichtstausch und Bildmanipulation sind inzwischen leicht zugänglich und oft kostenlos. Ihr Einsatz hat sich im kriminellen Alltag etabliert – etwa bei Identitätsbetrug, gezielten Täuschungen von Unternehmen oder sogenannten virtuellen Entführungen. Auch die Verbreitung nicht einvernehmlicher synthetischer Inhalte nimmt zu und stellt eine wachsende Belastung für Betroffene und Organisationen dar.
Verteidiger noch im Vorteil – aber nicht mehr lange
Derzeit verfügen Sicherheitsverantwortliche noch über einen gewissen Vorsprung. KI-gestützte Erkennung, automatisierte Analyse und aktuelle Bedrohungsinformationen helfen, viele Angriffe frühzeitig zu erkennen. Doch dieser Abstand schrumpft. Kriminelle lernen schnell, dieselben Technologien für ihre Zwecke zu nutzen – oft schneller, als neue Schutzmechanismen flächendeckend implementiert werden.
Normalisierung als größtes Risiko
Die Studie kommt zu dem Schluss, dass die eigentliche Gefahr nicht in einem plötzlichen Technologiesprung liegt, sondern in der schleichenden Normalisierung. Sobald KI-gestützte Angriffe berechenbar, günstig und einfach einsetzbar sind, werden sie zum festen Bestandteil des Cybercrime-Alltags.
Für Unternehmen bedeutet das, dass KI-basierte Bedrohungen nicht mehr als Ausnahme betrachtet werden können. Deepfake-Betrug, automatisierter Identitätsmissbrauch und KI-unterstützte Schadsoftware müssen fest in Sicherheitskonzepte, Prüfprozesse und Notfallpläne eingeplant werden – nicht als Zukunftsszenario, sondern als gegenwärtige Realität.