Anzeige

Deepfake

Deep Fakes sind Medieninhalte, die durch den Einsatz von Künstlicher Intelligenz gezielt völlig automatisiert manipuliert und über soziale Netzwerke verbreitet werden. Was als Spielerei in der digitalen Welt begann, entwickelt sich immer mehr zur realen Bedrohung für Unternehmen und Politik.

Die Abteilung Cognitive Security Technologies am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC forscht an der Schnittstelle zwischen Künstlicher Intelligenz und IT-Sicherheit und hat vier Bereiche identifiziert, in denen Deep Fakes bereits heute zur Herausforderung geworden sind.

Die Manipulation von Bildmaterial gehört mittlerweile zu unserem Alltag: Nicht nur in Zeitschriften oder auf Dating-Portalen wird mit Bildbearbeitungsprogrammen nachgeholfen, auch in sozialen Medien sind manipulierte Bilder allgegenwärtig. Das stellt auch Polizei, Gerichtswesen und Versicherungen zunehmend vor die Herausforderung, Originale von Fälschungen zu unterscheiden. Geschulte Fachkräfte unterstützen dabei, Bildmanipulationen z.B. bei Verdacht auf Betrug aufzudecken.

Mit Video- oder Audiomaterial verhielt es sich bislang noch anders: Aufgrund des dynamischen Inhalts ist die Anfertigung hochwertiger Fälschungen herausfordernder. Für eine Minute gefälschtes Videomaterial mit 30 Frames pro Sekunde müssten 1.800 Bilder manipuliert werden; und zwar so, dass sie alle nahtlos ineinander übergehen. Ähnliches gilt für Audiomaterial. Durch herkömmliche Methoden waren solche Fälschungen nahezu unmöglich, und Video- und Audiomaterial zählten damit lange als die letzte Bastion in Sachen Vertrauen und Authentizität in digitalen Medien.

Manipulation durch Machine Learning

Durch den Einsatz von Machine Learning und Methoden der Künstlichen Intelligenz ändert sich die Bedrohungslage: Hochwertige Video-Fälschungen können mittlerweile mit frei verfügbarer Open-Source-Software automatisiert erstellt werden. Und auch die gezielte Manipulation von Audio-Dateien ist technisch so weit ausgereift, dass einer Person in der digitalen Welt ein beliebiger Satz sozusagen »in den Mund gelegt« werden kann – vorausgesetzt, es steht genug Ausgangsmaterial zur Verfügung, um die KI zu trainieren. Insbesondere bei Personen des öffentlichen Lebens stellt das angesichts der Menge an Daten, die auf den gängigen Social-Media-Plattformen zur Verfügung stehen, keine wirkliche Hürde mehr dar.

»Der Name Deep Fake ist eine Komposition aus ‚Fake’ für Fälschung und ‚Deep’, was auf die zugrunde liegenden tiefen neuronalen Netze hinweist«, erklärt Nicolas Müller, wissenschaftlicher Mitarbeiter und Experte für Machine Learning am Fraunhofer AISEC. »Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und bestehen aus mehreren Millionen künstlichen Neuronen, die in der Lage sind, komplizierte Aufgaben zu lernen.«

Konkret bedeutet das, dass ein derartiges Netz mit Video- bzw. Audiomaterial einer Zielperson trainiert werden kann und so lernt, den Gesichtsausdruck oder die Sprachmelodie der Zielperson zu imitieren, um beliebiges Video- oder Audiomaterial zu generieren – mehrere Minuten an Sprachaufnahmen sind hier bereits ausreichend.

Bedrohung für Wirtschaft und Gesellschaft

Aufgrund der gesellschaftlichen Brisanz haben die Forschenden am Fraunhofer AISEC das Thema schon frühzeitig in den Fokus ihrer Untersuchungen gestellt. Dabei konnten die Sicherheitsexperten vier Bereiche identifizieren, in denen Deep Fakes bereits jetzt zur realen Herausforderung geworden sind:

  • VoiceID-Systeme: Um sich am Telefon bei einer Bank, einer Versicherung oder einem Mobilfunkanbieter zu legitimieren, werden zunehmend Voice-ID-Systeme eingesetzt. Der Nutzer wird bei einem Anruf anhand der Stimme identifiziert: Der Stimme kommt also die Bedeutung eines Passworts zu. Eine Fälschung der Stimme kann einen Angreifer beispielsweise legitimieren, Überweisungen zu tätigen oder ganze Konten zu leeren. 
     
  • ID-Provider: Anbieter von digitalen Identitäten erlauben es Kunden, rein digital über das Internet ihre Identität zu bestätigen. Diese Identitäten können anschließend genutzt werden, um Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier nicht nur Angriffe auf Privatpersonen (Person A handelt im Namen von Person B); sondern ermöglichen auch Straftaten wie Geldwäsche, da beliebige Bankkonten erzeugt werden können.
     
  • Kriminalistik: Deep Fakes können dazu eingesetzt werden, Beweismittel zu fälschen oder Straftaten zu verschleiern. Aufnahmen von Stimmen und Geräuschen werden häufig als Beweismittel zugelassen, um Betrüger zu überführen. Die Manipulation dieser Aufnahmen stellt eine große Herausforderung für die Justiz und das Rechtssystem dar.
     
  • Social Engineering: Nicht zuletzt öffnen Deep Fakes auch Trickbetrügern Tür und Tor. Im Bereich Social Engineering, also der gezielten Irreführung von Zielpersonen mit dem Zweck, an sensible Informationen zu gelangen und Zugriffsrechte auf IT-Systeme zu erhalten, eröffnen sich durch Deep Fakes neue Risiken.

Deep Fakes erkennen und Risiken minimieren

Durch den gezielten Einsatz von Methoden des Maschinellen Lernens wird die Bedrohung der digitalen Identität durch Deep Fakes weiterhin zunehmen.

Eine Antwort auf diese Bedrohung ist die KI-gestützte Erkennung von Deep Fakes. Denn so, wie Neuronale Netze die Erstellung lernen können, so können sie auch für die Erkennung von gefälschtem Material trainiert werden. Dies funktioniert, indem man ihnen eine Reihe echter und manipulierter Aufnahmen vorführt. Dadurch kann das Netz lernen, kleinste Unstimmigkeiten zu erkennen, die ein Mensch mit bloßem Auge übersehen würde. Derartige KI-Algorithmen sind dann in der Lage, automatisiert zu entscheiden, ob eine gegebene Audio- oder Videodatei echt oder nicht ist.

https://www.aisec.fraunhofer.de/


Artikel zu diesem Thema

Open Source
Mär 05, 2021

Open Source für die Digitale Transformation

Red Hat, Anbieter von Open-Source-Lösungen, hat die Ergebnisse des dritten The State of…
Phishing
Mär 04, 2021

So schützen Sie sich vor Corona-Phishing

Phishing hat während der Corona-Krise stärker als zuvor zugenommen. Kriminelle nutzen die…
Machine Learning
Feb 01, 2021

Sieben Learnings aus dem produktiven Einsatz von Machine Learning (ML)

Durch die Zusammenarbeit mit globalen Unternehmen konnte Data Reply über viele Jahre…

Weitere Artikel

Hacker

Cyberkriminelle wollen Kapital aus dem Thema Steuern schlagen

Erneut versuchen Cyberkriminelle sich weltweit die anstehenden Steuererklärungen vieler Bürger und Unternehmen zunutze zu machen, um Login-Daten zu entwenden und Schadsoftware zu verbreiten.
Hackerangriff

Colonial Pipeline-Hack: Das Stromnetz wurde nicht angegriffen – noch nicht...

Der Colonial Pipeline-Hack war auch insofern bemerkenswert, als dass er der bisher bedeutsamste Ransomware-Angriff auf ein US-Energietransportsystem war, im Gegensatz zu einem reinen Kraftstoffanbieter wie Exxon.
Krankenhaus IT

Krankenhäuser im Visier von Hackern

Leere Tanksäulen, verriegelte Supermarkttüren und der erste digitale Katastrophenfall in Deutschland – Menschen weltweit haben die Folgen der jüngsten Cyberattacken gegen kritische Infrastrukturen (KRITIS) am eigenen Leib gespürt: Erst Colonial Pipeline, dann…
DDoS

Zahl der DDoS-Angriffe sind rasant gestiegen

Die Zahl der DDoS-Attacken erreichte im 1. Halbjahr 2021 einen neuen Höchstwert. Die Zunahme gegenüber dem Vorjahreszeitraum mit seinem DDoS-Boom und einer Verdopplung der Angriffe betrug noch einmal 33 Prozent.
Phishing

Mehr Opfer von sicherheits- und personalbezogenem Phishing

KnowBe4, Anbieter einer Plattform für die Schulung des Sicherheitsbewusstseins und simuliertes Phishing, veröffentlicht die Ergebnisse seines Q2 2021 Phishing Reports mit den meistgeklickten Phishing Betreffzeilen.

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.