Suche
Zehn-Punkte-Plan
Die Grünen-Politikerin Ricarda Lang hat gemeinsam mit anderen prominenten Frauen einen Forderungskatalog gegen sexualisierte digitale Gewalt aufgestellt. Kern ist, die Erstellung und Verbreitung sogenannter sexualisierter Deepfakes unter Strafe zu stellen und sogenannte Nudify-Apps zu verbieten, mit denen solche gefälschten Sexbilder erstellt werden können. Zuerst hatte der «Spiegel» darüber berichtet.
Anzeige
Die Rechtslage sei "grottig"
Autor Sebastian Fitzek (54) fordert ein härteres Durchgreifen gegen digitale Gewalt und kritisiert KI-Firmen, die die Werkzeuge für pornografische Deepfakes bereitstellen. «Nicht nur das Erstellen, Konsumieren und Verbreiten virtueller Vergewaltigungen muss strafbewehrt sein», schrieb Fitzek in einem Instagram-Beitrag.
Anzeige
Tiefgang bei Zero Trust
Agentenbasierte KI (Agentic AI) verwandelt Cyberbedrohungen wie Phishing und Deepfakes in pausenlose Zero-Day-Exploits und automatisierte Ransomware. Die meisten Unternehmen werden damit nicht Schritt halten können.
Die neue Ära der digitalen Täuschung
Früher galt ein Foto als Beweis. Heute reicht das nicht mehr. Mit generativer KI lassen sich in Sekunden täuschend echte Bilder, Stimmen und Videos erzeugen – und selbst geschulte Augen und Ohren erkennen die Fälschung kaum noch. Tools wie ChatGPT, ElevenLabs oder spezialisierte Deepfake-Generatoren produzieren realistisch wirkende Inhalte auf
Deepfakes werden bleiben – doch Vertrauen ebenfalls
Betrugsmaschen haben sich immer parallel zur technologischen Entwicklung weiterentwickelt. Mit dem Aufkommen der Druckerpresse tauchten auch gefälschte Dokumente auf.
Anzeige
Falscher Jensen Huang
Ein mit künstlicher Intelligenz erzeugter Deepfake von Nvidia-Chef Jensen Huang hat am Dienstag während der GTC-Keynote Zehntausende YouTube-Nutzer in die Falle gelockt. Der betrügerische Stream warb für einen Kryptowährungs-Scam und wurde zeitweise von mehr Menschen geschaut als die echte Veranstaltung.
KI-Bildforensik
KI-generierte Inhalte wie Deepfakes stellen Versicherer vor neue Herausforderungen. Manipulierte Schadensbilder können oft selbst Experten täuschen. Herkömmliche Prüfmethoden reichen nicht mehr aus, um dem Problem Herr zu werden, doch spezialisierte Technologien bieten präzise Lösungen.
Deepfakes im Untergrund: Günstiger, schneller und gefährlicher
Sicherheitsforscher von Kaspersky haben in einschlägigen Foren eine neue Welle von Angeboten entdeckt, die gefälschte Audio- und Video-Inhalte in Echtzeit versprechen.
„Deepfake Detector“ von X-PHY
Künstliche Intelligenz (KI) ist mittlerweile in der Lage, hyperrealistische synthetische Medien zu erstellen, die sich kaum von echten Inhalten unterscheiden lassen. Damit stellen Deepfakes – gefälschte Videos, Bilder oder Audiodateien, die echte Menschen imitieren – eine erhebliche und schnell wachsende Sicherheitsbedrohung dar.
Anzeige
20.04.2026
 - 24.04.2026
Messegelände Hannover
21.04.2026
 - 22.04.2026
Nürnberg
28.04.2026
 - 29.04.2026
Baden-Württemberg
Anzeige

Meistgelesene Artikel

Anzeige
Anzeige
Anzeige
Anzeige