Neue Werkzeuge, alte Ziele – aber mit neuer Raffinesse

Deepfakes: Wie KI-generierte Inhalte die Cyberkriminalität revolutionieren

Deepfakes, Deep Fake, Tipps

Cyberkriminelle passen sich stetig an – und mit der Verbreitung generativer Künstlicher Intelligenz erleben ihre Methoden eine beunruhigende Weiterentwicklung.

Immer mehr Angriffe stützen sich auf sogenannte Deepfakes – also künstlich erzeugte Audio-, Video- oder Bildinhalte, die reale Personen täuschend echt imitieren können.

Anzeige

Ein aktueller Bericht des japanischen Sicherheitsunternehmens Trend Micro beleuchtet die zunehmende Verbreitung und Professionalisierung dieser Technologie im Kontext von Cyberkriminalität. Das Fazit ist klar: Deepfakes sind kein technischer Gag mehr – sie stellen eine reale Bedrohung für Unternehmen und Einzelpersonen dar.Gefälschte Gesichter, echte Schäden

Was früher Expertenwissen erforderte, ist heute mit wenigen Klicks möglich. Plattformen zur Erstellung künstlicher Medieninhalte – ursprünglich für Content Creators gedacht – sind inzwischen fester Bestandteil im Arsenal von Kriminellen. Sie sind günstig, leicht bedienbar und so leistungsfähig, dass sie Sicherheitsmechanismen und Identitätsprüfungen täuschen können.

Diese Entwicklung hat konkrete Folgen. Deepfakes werden gezielt eingesetzt, um:

Anzeige
  • Führungskräfte zu imitieren: In sogenannten CEO-Fraud-Fällen gelingt es Angreifern, per Deepfake-Video oder -Audio Manager vorzutäuschen – etwa in virtuellen Meetings.
  • Bewerbungen zu manipulieren: Bewerber geben sich mit KI-generierter Unterstützung als andere Personen aus, schleichen sich durch Auswahlverfahren und erlangen Zugang zu internen Daten.
  • Finanzkontrollen zu umgehen: Deepfakes werden genutzt, um KYC-Prüfungen zu unterlaufen und Geldwäsche unter falscher Identität zu betreiben.

Der Untergrund wird zum Dienstleister

Besonders alarmierend ist der wachsende Markt für kriminelle Dienstleistungen im Cyber-Untergrund. Dort finden sich Tutorials, fertige Werkzeuge und Schritt-für-Schritt-Anleitungen für gezielte Deepfake-Angriffe. Selbst technisch wenig versierte Personen können mit minimalem Aufwand überzeugende Fälschungen erzeugen.

Die niedrige Einstiegshürde macht Deepfake-basierte Angriffe zu einer ernstzunehmenden Gefahr – insbesondere, da klassische Schutzmaßnahmen oft nicht ausreichen.

Was Unternehmen jetzt tun müssen

Trend Micro ruft Unternehmen dazu auf, ihre Sicherheitskonzepte neu zu denken. Technologische Lösungen allein reichen nicht – es braucht auch organisatorische und menschliche Schutzmaßnahmen. Dazu gehören:

  • Schulungen für Mitarbeitende zur Erkennung von Social-Engineering-Methoden
  • Überprüfung und Anpassung von Authentifizierungsverfahren
  • Integration von Tools zur Erkennung synthetischer Medieninhalte

„Die Bedrohung durch KI-generierte Inhalte ist längst Realität“, mahnt David Sancho, Bedrohungsanalyst bei Trend Micro. Unternehmen seien nicht mehr in der Lage, sich auf den bloßen Augenschein zu verlassen. Das digitale Vertrauen, so Sancho, müsse grundlegend neu gedacht werden.

Deepfakes sind nicht nur technische Spielereien, sondern Werkzeuge mit enormem Schadenspotenzial. Unternehmen stehen vor der Herausforderung, sich nicht nur technologisch, sondern auch kulturell auf eine neue Ära der Täuschung einzustellen. Wer heute nicht handelt, riskiert morgen mehr als nur Imageschäden.

(pd/Trend Micro)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.