Ein Forscherteam der University of California Riverside hat eine KI entwickelt, die raffinierte Deepfakes zuverlässig erkennt. Anders als frühere Technologien analysiert das System nicht nur Gesichter, sondern das gesamte Videomaterial, um gefälschte Videos zu entlarven.
Deepfake-Erkennung auf einem neuen Level
Forscher der University of California Riverside haben gemeinsam mit Experten von Google ein innovatives Werkzeug entwickelt, das manipulierte Videos aufdecken kann. Die Künstliche Intelligenz geht dabei weit über die bisherigen Methoden hinaus, die hauptsächlich auf den Austausch von Gesichtern oder Veränderungen der Stimme fokussiert waren. Das neue System analysiert das gesamte Bild – von Hintergründen bis zu Bewegungsmustern – und erkennt so selbst komplexe Fälschungen.
Das Video ganzheitlich prüfen
Das KI-Modell mit dem Namen “Universal Network for Identifying Tampered and synthEtic videos” (UNITE) setzt auf eine umfassende Analyse von Videosequenzen. Rohit Kundu, Doktorand der Universität, erklärt: „Deepfakes haben sich weiterentwickelt. Es geht nicht mehr nur um den Austausch von Gesichtern. Mit leistungsstarken generativen Modellen erstellen Menschen mittlerweile komplett gefälschte Videos, von Gesichtern bis hin zu Hintergründen. Unser System ist darauf ausgelegt, all das zu erkennen.“
Frühere Deepfake-Detektoren seien fast ausschließlich auf Gesichtsmerkmale fokussiert gewesen. „Wenn kein Gesicht im Bild zu sehen ist, funktionieren viele Detektoren einfach nicht. Aber Desinformation kann viele Formen haben. Bereits das Verändern des Hintergrunds einer Szene kann die Wahrheit verzerren“, unterstreicht der Wissenschaftler.
Künstliche Intelligenz als Wächter der Wahrheit
UNITE nutzt ein Deep-Learning-Modell, das räumliche und zeitliche Unstimmigkeiten in Videos aufdeckt. Es basiert auf der KI-Architektur „SigLIP“, die Merkmale extrahiert, die unabhängig von Personen oder Objekten sind. Eine besondere Trainingsmethode namens „Attention-Diversity-Loss“ zwingt das System dazu, verschiedene Bildbereiche zu überwachen und sich nicht allein auf Gesichter zu konzentrieren.
Die Kooperation mit Google ermöglichte den Zugang zu großen Datensätzen und Rechenkapazitäten, die für das Training der KI notwendig sind. Kundu fasst zusammen: “Die Menschen haben ein Recht darauf zu wissen, ob das, was sie sehen, echt ist. Und da KI immer besser darin wird, die Realität zu verfälschen, müssen wir besser darin werden, die Wahrheit aufzudecken.”
(vp/pressetext.redaktion)