Computergenerierte Täuschungsvideos könnten schon bald kaum mehr von echten Aufnahmen zu unterscheiden sein. Forscher der Humboldt-Universität zu Berlin haben eine beunruhigende Entwicklung vorgestellt.
Sie haben eine Methode entwickelt, mit der künstlich erzeugte Deepfakes nun auch einen simulierten Herzschlag und die damit verbundenen subtilen Hautveränderungen aufweisen können.
„Wir zeigen jetzt zum ersten Mal, dass aktuelle hochwertige Deepfake-Videos einen realistischen Herzschlag und winzige Veränderungen in der Gesichtsfarbe aufweisen können, wodurch sie viel schwieriger zu erkennen sind“, erklärt Peter Eisert, Spezialist für visuelle Datenverarbeitung an der Humboldt-Universität.
Bisherige Erkennungsmethode ausgehebelt
Bisher konnten Fachleute gefälschte Videos häufig anhand fehlender physiologischer Merkmale identifizieren. Die Analyse der Lichtreflexion durch die Haut und die darunter liegenden pulsierenden Blutgefäße – eine Technik, die auch in der Medizin zur Messung von Vitalparametern genutzt wird – diente als zuverlässiges Instrument zur Entlarvung von Deepfakes. Doch genau diese Methode haben die Berliner Wissenschaftler nun erfolgreich umgangen.
Täuschend echte Simulation
Im Rahmen ihrer Forschung erstellten Eisert und sein Team ein Video auf Basis von Bildern einer realen Person und transferierten dabei die charakteristischen Hautschattierungen sowie deren pulsierende Veränderungen. Das erschreckende Ergebnis: Ein aktueller Deepfake-Detektor der neuesten Generation erkannte diese physiologischen Merkmale und klassifizierte das Video fälschlicherweise als authentisch.
Neue Erkennungsstrategien notwendig
Trotz dieser Entwicklung bleibt Eisert optimistisch, dass auch solche fortschrittlichen Fälschungen noch entlarvt werden können – allerdings mit einer grundlegend neuen Herangehensweise. „Wir müssen künftig nachweisen, dass in einem Video etwas unverändert geblieben ist statt zu erkennen, dass etwas gefälscht ist“, betont der Forscher. Nach seiner Logik: Wenn nichts Originales mehr nachweisbar ist, handelt es sich um eine Fälschung.
Die Implikationen dieser Entwicklung sind weitreichend, da Deepfakes zunehmend für Desinformation und Manipulation eingesetzt werden könnten. Zwar haben nicht alle Anwendungen böswillige Hintergründe – wie die beliebten Apps zur harmlosen digitalen Transformation in eine Katze oder zur Alterssimulation zeigen – doch das Missbrauchspotenzial wächst mit der steigenden Qualität der Fälschungen.