„Deepfake Detector“ von X-PHY

Deepfakes in Echtzeit erkennen

KI, deepfakes erkennen, deepfake erkennen tool, Deepfake Detector, Deepfake Detector X-PHY, Deepfakes, künstliche Intelligenz

Künstliche Intelligenz (KI) ist mittlerweile in der Lage, hyperrealistische synthetische Medien zu erstellen, die sich kaum von echten Inhalten unterscheiden lassen. Damit stellen Deepfakes – gefälschte Videos, Bilder oder Audiodateien, die echte Menschen imitieren – eine erhebliche und schnell wachsende Sicherheitsbedrohung dar.

Die digitalen Täuschungen kommen bereits in unterschiedlichsten Bereichen zum Einsatz, von Finanzbetrug bis hin zu politischer Desinformation. Sie nutzen das Vertrauen der Benutzer in ihre visuelle und akustische Wahrnehmung aus und stellen Einzelpersonen, Unternehmen und Regierungen zunehmend vor die schwierige Herausforderung, Fakten von Fiktion zu unterscheiden.

Anzeige

Da Deepfake-Technologien immer leichter zugänglich werden, ist der Bedarf an robusten Erkennungslösungen größer denn je. Open-Source-Plattformen wie DeepFaceLab etwa erfordern nur minimale Fachkenntnisse, um Deepfakes zu erstellen – und die Fälschungen werden immer raffinierter. Unterdessen haben bisher weniger als fünf Prozent aller Unternehmen Produkte oder Dienstleistungen implementiert, um das Problem anzugehen und manipulierte Medien proaktiv erkennen zu können. Doch die Nachfrage nach Deepfake-Erkennungstools wächst.

Eine Lösung kommt jetzt von X-PHY, das auf der RSA Conference 2025 den „Deepfake Detector“ angekündigt hat. Mit ihm können Nutzer die Authentizität von Videos, Audios und Bildern direkt auf ihren Geräten überprüfen – in Echtzeit und ganz ohne Cloud-Anbindung. Die Lösung macht sich selbst fortschrittliche KI zunutze, um subtile Anomalien in Deepfakes zu identifizieren, die leicht von menschlichen Anwendern übersehen werden können.

Zur Deepfake-Erkennung braucht es KI

Zu den wichtigsten Ansätzen bei einer zuverlässigen Deepfake-Erkennung gehören unter anderem multimodale Analysen. Eine Kombination von Video-, Audio- und Bildanalyse erlaubt es dem KI-Algorithmus, winzige Unstimmigkeiten zu erkennen, beispielsweise eine nicht übereinstimmende Lippensynchronisation oder unnatürliche Sprachmuster.

Anzeige

Dazu kommt eine zeitliche und räumliche Analyse der vorliegenden Fotos oder Videos. Hier werden neuronale Netze eingesetzt, um die Konsistenz zwischen einzelnen Bildern und räumlichen Artefakten zu prüfen. So können etwa eine unregelmäßige Beleuchtung oder Überblendungsfehler Hinweise darauf sein, dass es sich um ein synthetisch erstelltes Deepfake handelt.

Auf der Grundlage von biometrischen, Synchronisations- und weiteren Anomalieprüfungen weist die KI den untersuchten Medien anschließend Vertrauensbewertungen zu. Ein Zero-Trust-Ansatz – also den fraglichen Medien zunächst zu misstrauen, bis das Gegenteil bewiesen ist – stellt sicher, dass niemals automatisch eine Authentizität vorausgesetzt wird.

Wichtig ist bei der Lösung von X-PHY, dass sie auch eine Offline-Verarbeitung der fraglichen Videos und Fotos erlaubt. Die Erkennung erfolgt vollständig lokal auf dem Gerät. Dadurch bleibt die Privatsphäre der Nutzer geschützt und der Betrieb ist auch ohne Internetverbindung möglich, zum Beispiel in Air-Gap- oder datenschutzorientierten Umgebungen.

X-PHY Deepfake Detector Demo
Video: X-PHY Deepfake Detector Demo (Quelle: X-PHY / YouTube)


Einfache Integration in das Anwendersystem

Der Deepfake Detector ist so konzipiert, dass keine komplizierte Integration auf Benutzerseite erforderlich ist. Als schlanker Software-Agent lässt sich die Lösung nach dem Herunterladen ganz einfach auf einem Windows-PC installieren und ausführen; Versionen für das macOS-Betriebssystem sowie mobile Endgeräte sind derzeit noch in Entwicklung.

Nach der Installation und dem Start ermöglicht das Programm das fortlaufende Scannen von Medien auf dem Bildschirm des Nutzers in Echtzeit. Dazu gehören beispielsweise Teams- oder Zoom-Meetings, YouTube-Videos, Livestreams und heruntergeladene Videos. Wird ein Deepfake erkannt, zeigt der Detektor sofort eine Benachrichtigung an. Alle Informationen dazu werden lokal gespeichert, um spätere Audits und weitere Überprüfungen zu erleichtern.

Die Lösung ist komplett anwendungsunabhängig, denn sie scannt den Bildschirm, anstatt über App-Integrationen zu arbeiten. Damit funktioniert sie zum Beispiel auch für Deepfakes, die in E-Mails versendet werden. Sobald der Benutzer eine Datei ansieht, die er per E-Mail erhalten hat, springt der Deepfake Detector an und markiert verdächtige Video- oder Audioinhalte automatisch.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Gefälschte Multimedia-Inhalte erkennen

Der Deepfake Detector wurde gezielt entwickelt, um synthetische Multimedia-Inhalte zu erkennen. Das heißt, er scannt Videos, Audiodateien und Fotos, jedoch keine Texte. Das Hauptaugenmerk liegt auf der Erkennung von Deepfake-Angriffen während Live-Video-Calls oder Audioanrufen, denn diese sind derzeit die am häufigsten genutzten Vektoren für Deepfake-Betrugsversuche.

Und obwohl synthetische oder KI-generierte Texte ebenfalls ihren Teil zur allgemeinen Desinformationslandschaft beitragen, unterscheidet sie sich dennoch deutlich von dem, was typischerweise als „Deepfakes” bezeichnet wird – also manipulierte Audio-, Video- oder Bildinhalte, die dazu dienen, anhand von geklonten Bildern und Stimmen reale Personen nachzuahmen, um andere Benutzer zu täuschen. Hier sucht der Deepfake-Scanner unter anderem nach verräterischen Synchronisationsfehlern, Gesichtsartefakten, synthetischen Sprachmustern und Inkonsistenzen auf Bildebene wie Texturanomalien. Dabei setzt er unter anderem Convolutional Neural Networks (CNNs) ein, um kleinste Details in den visuellen Daten zu analysieren. Long Short-Term Memory Networks (LSTMs) überwachen parallel die zeitliche Kohärenz in den Video- und Audioinhalten, wie etwa den Sprachfluss, während Gated Recurrent Units (GRUs) subtile Verzerrungen in synthetischen Sprachfrequenzen erkennen.

Menschliches Urteilsvermögen auch weiterhin gefragt

Während die KI-basierte Technologie die Aufgabe übernehmen kann, manipulierte Inhalte zu identifizieren, liegt die endgültige Entscheidung, wie mit den Inhalten umgegangen werden soll, trotzdem weiterhin beim Nutzer. Auch wenn das Erkennungstool mit gezielten Warnhinweisen eine wichtige Unterstützung leistet, spielt das menschliche Urteilsvermögen also weiter eine maßgebliche Rolle.

Inzwischen sind Angreifer im Internet auch schon darauf übergegangen, Inhalte mit so genannten Adversarial-AI-Methoden gezielt so gestalten, dass sie KI-Detektoren täuschen können. Die KI-Modelle von X-PHY sind zwar darauf trainiert, bisher gängigen Adversarial-Mustern zu widerstehen, aber wie jedes KI-System muss auch der Deepfake Detector ständig aktualisiert werden, um mit den sich weiterentwickelnden Angriffsstrategien Schritt zu halten. Durch solche Weiterentwicklungen und Updates – wie Nutzer sie auch von Antivirenprogrammen gewohnt sind – bleibt die Lösung dann auch bei neuen Deepfake-Bedrohungen weiterhin wirksam.

Camellia Chan Flexxon

Camellia

Chan

CEO und Mitbegründerin

Flexxon

Camellia Chan ist CEO und Gründerin von X-PHY, einer Marke von Flexxon. Seit der Gründung im Jahr 2007 hat Camellia Flexxon zu einem internationalen Unternehmen mit Niederlassungen in über 50 Städten ausgebaut. Flexxon entwickelt seine zentrale Suite von Cybersicherheitsservices unter der Marke X-PHY ständig weiter.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.