Herausforderungen die Strafverfolgung und Interpol

Deepfakes: Täuschend echt und brandgefährlich

KI, deepfakes strafverfolgung, deepfake erkennung, Deepfakes, Strafverfolgung

Die rapide Entwicklung und Verbreitung von Deepfakes stellt eine zunehmende Bedrohung für Gesellschaften, Unternehmen und Strafverfolgungsbehörden dar. Deepfakes sind durch KI generierte Videos, Bilder oder Audiodateien, die kaum von echten Aufnahmen zu unterscheiden sind. Und auch Identitätsdiebstahl durch synthetische Ausweisdokumente ist durch den weit verbreiteten Einsatz von KI immer einfacher umzusetzen.

Das stellt sowohl für Privatpersonen als auch für Unternehmen erhebliche Herausforderungen dar. Da KI-generierte Inhalte immer überzeugender werden, sind immer mehr Menschen anfällig für Social-Engineering-Angriffe. Beispielsweise durch synthetische Videos oder Audiodateien, die verwendet werden, um sich als vertrauenswürdige Personen auszugeben und an sensible Informationen oder Geld zu gelangen. Gleichzeitig fördert die Verbreitung von Deepfakes gesellschaftliche Desinformation, etwa durch gefälschte Aussagen politischer Akteure und erschwert damit die Aufklärung von Straftaten.

Anzeige

Bereits im Jahr 2024 zeigt der Sumsub Identity Fraud Report, dass sieben Prozent aller weltweit gemeldeten Betrugsfälle auf den Einsatz von Deepfake-Technologien zurückzuführen waren – eine Vervierfachung gegenüber dem Vorjahr. Ein Trend, der sich auch in diesem Jahr fortsetzt. Wie Daten aus dem ersten Quartal zeigen, stiegen auch in Deutschland die Deepfake-Betrugsversuche rasant um 1100 % im Vergleich zum ersten Quartal im Vorjahr an. Um gegen diese vorzugehen, müssen auch Strafverfolgungsbehörden diese neuen Bedrohungen verstehen.

Wie entstehen Deepfakes – und warum sind sie so gefährlich?

Deepfakes basieren auf einer Reihe verschiedener KI-Technologien wie Generative Adversarial Networks (GANs), Diffusion Models und Autoencodern. Diese Systeme analysieren Video- oder Audiodaten, extrahieren Muster und generieren daraus neue, manipulierte Inhalte. Sie ermöglichen es, Bilder, Videos und Audioaufnahmen von Personen in scheinbar realistischen Situationen zu erstellen, die nie tatsächlich stattgefunden haben, wie etwa ein Video, in dem eine Führungskraft eine Zahlungsanweisung gibt, die sie nie ausgesprochen hat.

Diese Fälschungen sind mittlerweile so realitätsnah, dass Gesichtszüge, Sprachmelodie und sogar der Sprachduktus nahezu perfekt imitiert werden können. Ein Beispiel, das 2024 weltweit Schlagzeilen machte, betraf eine vermeintliche Videokonferenz mit dem CEO eines multinationalen Unternehmens, bei der ein Mitarbeiter fälschlicherweise 25 Millionen US-Dollar überwies. Solche Fälle verdeutlichen, wie effektiv Deepfakes eingesetzt werden können, um finanziellen Schaden anzurichten und sind dabei erst der Anfang.

Anzeige

Eine neue Dimension des Identitätsdiebstahls

Neben Deepfakes stellt auch der rapide Anstieg synthetischer Identitätsdokumente eine wachsende Herausforderung dar. Die aktuelle Sumsub-Studie hebt hervor, dass Deutschland in diesem Bereich, mit einem Anstieg von 567 Prozent im Vergleich zum Vorjahr, europaweit besonders stark betroffen ist. Diese Ausweisdokumente bestehen oft aus realen, gestohlenen Daten kombiniert mit KI-generierten Informationen, was eine effektive Identitätsprüfung erheblich erschwert.

Darüber hinaus verbreitet sich KI-generierte Inhalte zunehmend auf Plattformen und sozialen Medien, was wiederum Desinformation und Propaganda fördert. Dies birgt das Risiko, die öffentliche Meinung zu manipulieren und demokratische Prozesse zu beeinflussen, indem gezielt falsche Informationen verbreitet werden, deren Authentizität nur schwer zu überprüfen ist. Gleichzeitig entwickeln sich allerdings auch die Technologien zur Erkennung von Deepfakes und die Moderationswerkzeuge von Plattformen weiter und bieten neue Möglichkeiten, einige dieser Risiken zu mindern.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wie können sich Unternehmen schützen?

Auch wenn sich Deepfake-Betrug nicht vollständig verhindern lässt, können Unternehmen durch gezielte Maßnahmen das Risiko erheblich reduzieren. Entscheidend ist ein mehrstufiger Schutzansatz, der sowohl technologische als auch organisatorische Mittel kombiniert. So hilft die Implementierung eines Tools, dass bei großen Transaktionen, zusätzliche Genehmigungen von weiteren Kollegen anfordert. Ebenso wichtig ist die Sensibilisierung der Mitarbeitenden für ungewöhnliche Kommunikationssituationen – etwa Videobotschaften oder Anrufe, die plötzlich zur Herausgabe sensibler Daten oder Gelder auffordern. In solchen Fällen gilt: immer über einen zweiten Kanal rückversichern.

Technologisch stehen Unternehmen heute leistungsstarke Tools zur Verfügung. KI-gestützte Systeme erkennen Deepfakes und synthetischen Betrug anhand von Bild- und Tonartefakten und übertreffen dabei häufig menschliche Prüfmechanismen. Liveness-Detection-Tools helfen bei der biometrischen Verifikation, indem sie zwischen echten und manipulierten Gesichtern unterscheiden. Ergänzend dazu analysiert Behavioral Analytics verdächtige Nutzeraktivitäten, zum Beispiel Mehrfachregistrierungen mit derselben Identität. Auch Fraud Network Detection bietet einen erheblichen Vorteil: Durch die Erkennung zusammenhängender Betrugsmuster können kriminelle Netzwerke schon frühzeitig, gestoppt werden.

Ein umfassender Schutz entsteht durch die Kombination all dieser Maßnahmen – von KI-basierter Analyse über Echtzeit-Verhaltensüberwachung bis hin zur biometrischen Prüfung. So sichern Unternehmen den gesamten Nutzerlebenszyklus und bauen eine widerstandsfähige Verteidigung gegen die wachsende Bedrohung durch Deepfakes, gefälschte Dokumente und klassische Betrugsmaschen auf.

Wie gehen Strafverfolgungsbehörden mit der Bedrohung um?

Internationale Strafverfolgungsbehörden wie Interpol haben erkannt, dass zur Bekämpfung dieser Bedrohung spezialisierte Fähigkeiten und Technologien erforderlich sind. Polizeibehörden benötigen neue forensische Methoden wie:

  • Analyse von Metadaten: Untersuchung der ursprünglichen Erstellungsdaten und -zeiten sowie eventuelle Bearbeitungshistorien, um Hinweise auf Manipulation zu entdecken.
  • Reverse Image Searching: Nutzung von Tools, um Originalquellen von Bildern zu identifizieren und Manipulationen nachzuweisen.
  • Linguistische Analyse: Prüfung von Text- und Sprachmustern, um Inkonsistenzen oder Unregelmäßigkeiten aufzudecken.
  • KI-gestützte Modelle: Einsatz von Modellen zur Erkennung visueller und akustischer Anomalien, die menschlichen Prüfern entgehen könnten.
  • Explainable AI (XAI): Integration transparenter und nachvollziehbarer Methoden, um nicht nur Manipulationen aufzudecken, sondern auch zu erklären, warum eine Datei als manipuliert erkannt wurde.

Rechtliche Unsicherheit bleibt

Ein zentrales Problem bleibt: Die Gesetzeslage hält oft nicht mit der technischen Entwicklung Schritt. Deepfake-Opfer haben es schwer, sich zu wehren – nicht zuletzt, weil Täter grenzüberschreitend agieren und Inhalte viral verbreitet werden. Auch Gerichte stehen vor neuen Herausforderungen: Wie beweist man, dass ein Video echt oder eben gefälscht ist?

Besonders heikel ist dabei der sogenannte Liar’s Dividend: Selbst authentisches Beweismaterial könnte künftig diskreditiert werden, weil jeder sich auf den Vorwurf „Deepfake“ berufen kann.

Was jetzt nötig ist?

Angesichts der rasanten technologischen Fortschritte ist es zwingend notwendig, dass Strafverfolgungsbehörden kontinuierlich ihre technischen Fähigkeiten ausbauen und geschult werden, um auf dem neuesten Stand der technischen Entwicklung zu bleiben. Dafür benötigt es eine verstärkte Zusammenarbeit zwischen öffentlichen Einrichtungen, der Wissenschaft und der Privatwirtschaft, um umfassende Abwehrstrategien gegen KI-basierte Bedrohungen zu entwickeln. Denn private Anbieter, die täglich Deepfakes und gefälschte Unterlagen prüfen und erkennen, sind Strafverfolgungsbehörden in den technischen Fähigkeiten oft voraus.

Es kommt zudem nicht nur auf technologische Lösungen an. Es braucht auch klare regulatorische Rahmenbedingungen und gesellschaftliches Bewusstsein für die Risiken, die von synthetischen Medien ausgehen. Die Bewältigung dieser Herausforderung erfordert also einen ganzheitlichen Ansatz, der Technik, rechtliche Maßnahmen und Bewusstseinsbildung umfasst. Nur durch gemeinsame Anstrengungen können Strafverfolgungsbehörde, Gesellschaft und Wirtschaft den Gefahren von Deepfakes und anderen KI-basierten Manipulationen wirksam begegnen.

Pavel Goldman-Kalaydin Sumsub

Pavel

Goldman-Kalaydin

Head of Artificial Intelligence and Machine Learning

Sumsub

Pavel Goldman-Kalaydin ist Head of Artificial Intelligence and Machine Learning bei Sumsub, einer globaren Full-Cycle-Verifizierungsplattform. Mit einem umfassenden Hintergrund in der Softwareentwicklung ist Pavel seit über zehn Jahren im Bereich KI und ML tätig. Bei Sumsub leitet er die Entwicklung von Technologien zur Prävention digitaler Betrugsversuche.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.