Realistischer Herzschlag möglich

Forscher sicher: Deepfakes bald nicht mehr zu erkennen

Deepfake

Computergenerierte Täuschungsvideos könnten schon bald kaum mehr von echten Aufnahmen zu unterscheiden sein. Forscher der Humboldt-Universität zu Berlin haben eine beunruhigende Entwicklung vorgestellt.

Sie haben eine Methode entwickelt, mit der künstlich erzeugte Deepfakes nun auch einen simulierten Herzschlag und die damit verbundenen subtilen Hautveränderungen aufweisen können.

Anzeige

„Wir zeigen jetzt zum ersten Mal, dass aktuelle hochwertige Deepfake-Videos einen realistischen Herzschlag und winzige Veränderungen in der Gesichtsfarbe aufweisen können, wodurch sie viel schwieriger zu erkennen sind“, erklärt Peter Eisert, Spezialist für visuelle Datenverarbeitung an der Humboldt-Universität.

Bisherige Erkennungsmethode ausgehebelt

Bisher konnten Fachleute gefälschte Videos häufig anhand fehlender physiologischer Merkmale identifizieren. Die Analyse der Lichtreflexion durch die Haut und die darunter liegenden pulsierenden Blutgefäße – eine Technik, die auch in der Medizin zur Messung von Vitalparametern genutzt wird – diente als zuverlässiges Instrument zur Entlarvung von Deepfakes. Doch genau diese Methode haben die Berliner Wissenschaftler nun erfolgreich umgangen.

Täuschend echte Simulation

Im Rahmen ihrer Forschung erstellten Eisert und sein Team ein Video auf Basis von Bildern einer realen Person und transferierten dabei die charakteristischen Hautschattierungen sowie deren pulsierende Veränderungen. Das erschreckende Ergebnis: Ein aktueller Deepfake-Detektor der neuesten Generation erkannte diese physiologischen Merkmale und klassifizierte das Video fälschlicherweise als authentisch.

Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Neue Erkennungsstrategien notwendig

Trotz dieser Entwicklung bleibt Eisert optimistisch, dass auch solche fortschrittlichen Fälschungen noch entlarvt werden können – allerdings mit einer grundlegend neuen Herangehensweise. „Wir müssen künftig nachweisen, dass in einem Video etwas unverändert geblieben ist statt zu erkennen, dass etwas gefälscht ist“, betont der Forscher. Nach seiner Logik: Wenn nichts Originales mehr nachweisbar ist, handelt es sich um eine Fälschung.

Die Implikationen dieser Entwicklung sind weitreichend, da Deepfakes zunehmend für Desinformation und Manipulation eingesetzt werden könnten. Zwar haben nicht alle Anwendungen böswillige Hintergründe – wie die beliebten Apps zur harmlosen digitalen Transformation in eine Katze oder zur Alterssimulation zeigen – doch das Missbrauchspotenzial wächst mit der steigenden Qualität der Fälschungen.

Lars

Becker

Redakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.