Beeinflussung durch Narrative

#StoptheSteal-Kampagne im US-Wahlkampf offenbart gefährlichen Einfluss von Desinformation

Quelle: bakdc / Shutterstock.com

Künstliche Intelligenz und journalistische Expertise sind die Basis einer Desinformationserkennung, die in Kooperation von pressrelations, NewsGuard und dem Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE entwickelt und umgesetzt wurde. Erster Use Case: die qualitative Analyse der Medienberichterstattung zum US-Wahlkampf 2020.

Sie zeigt, dass Donald Trump die mediale Dominanz gegenüber seinem Herausforderer Joe Biden vorrangig der Verbreitung von Fake News und Desinformation vor allem mit Unterstützung nicht-vertrauenswürdiger Medien zu verdanken hat. Ein Thema sticht darunter besonders heraus: der Vorwurf des Wahlbetrugs, der unter anderem maßgeblich den Weg für die Stürmung des Kapitols am 6. Januar bereitet hat.

Anzeige

Das Narrativ der manipulierten Wahl: Ein mediales Grundrauschen herrschte zum Thema »manipulierte Briefwahl« über den gesamten Beobachtungszeitraum hinweg, wie die Medienanalyse zeigte. Am Vortag der Wahl und am Wahltag selber explodierte sie jedoch geradezu.

»Fake News und Desinformation sind heute allgegenwärtig, ihre ungefilterte Verbreitung über Online-Medien ist einfacher denn je. Wesentliches Ziel des Kooperationsprojekts ist es daher, die Resilienz der Gesellschaft gegenüber Falschmeldungen und Beeinflussungen zu steigern. Wie wichtig dies für den Erhalt und die Stärkung unserer demokratischen Grundordnung ist, macht der amerikanische Wahlkampf aktuell überaus anschaulich deutlich«, erklärt FKIE-Forschungsgruppenleiter Prof. Dr. Ulrich Schade. »Der gemeinsam entwickelte Ansatz unterstützt hierbei. Er beruht auf der Sammlung, Aufbereitung und halb automatischen Analyse von Pressetexten und von Beiträgen in den sozialen Medien durch pressrelations, der Bewertung der Glaubwürdigkeit von Quellen nach journalistischen Qualitätskriterien durch NewsGuard und einer KI-basierten Analyse durch das Fraunhofer FKIE.«

Vertrauenswürdige Medien berichten faktenbasiert und nüchtern

Basis der gemeinsam durchgeführten qualitativen Medienanalyse, die sich hauptsächlich über den Zeitraum 1. Juni 2020 bis zum Wahltag am 3. November 2020 erstreckte, bilden mehr als 25.000 Online-Artikel aus den USA und der DACH-Region (Deutschland, Österreich, Schweiz), TV-Beiträge sowie über 3.000 von den Präsidentschaftskandidaten veröffentlichte Tweets, die das internationale Medienbeobachtungsunternehmen pressrelations zusammengestellt und ersten Untersuchungen unterzogen hat. Dabei wurden die Artikel, Beiträge und Tweets auch mit der Bewertung der Quellen nach NewsGuard versehen. Für den »NewsGuard-Score« wird entlang eines Rasters gewichteter journalistischer Gütekriterien ein Punktewert zwischen 0 bis 100 vergeben. Das FKIE hat auf dieser Grundlage mit dem eigenen KI-Tool weitere Analysen durchgeführt. Die Ergebnisse bestätigen zunächst einmal die vermuteten generellen Trends: je vertrauenswürdiger das Medium, desto neutraler und sachlicher die Berichterstattung über Joe Biden und desto negativer über Donald Trump, je weniger glaubwürdig die Quelle, desto positiver der Tenor gegenüber Trump und desto negativer gegenüber Biden.

KI sucht Hinweise auf Fake und Beeinflussungskampagnen

Das FKIE-Tool nutzt Ansätze des maschinellen Lernens und betrachtet als Merkmale sowohl den Inhalt der Beiträge als auch verfügbare Metadaten. Der sprachliche Fokus ist dabei vorrangig auf die Wiedergabe von Emotion in den Beiträgen und auf das Vorkommen spezifischer sprachlicher Ausdrücke ausgerichtet. So hat das Tool gelernt, dass »absolutely« ein Wort ist, das in Fake News häufig Verwendung findet. Metadaten spielen ebenfalls eine wichtige Rolle: Wie häufig wird gepostet? Und um welche Uhrzeit? Eine hohe Sendefrequenz kann auf einen Bot hinweisen. Die Uhrzeit wiederum kann Aufschluss darüber geben, aus welchem Land bzw. welcher Zeitzone die Meldung abgesetzt wurde.

Wichtiger sind aber Merkmale, die auf Netzwerkanalysen beruhen: Welche anderen Quellen zitiert etwa ein sendender Social Media Account? Wie sieht die Follower-Struktur aus? Die automatisierte Analyse bietet damit eine sinnvolle Ergänzung des NewsGuard-Scores: Warnen beide Systeme (verdächtiger Inhalt aus verdächtiger Quelle), sollte der Beitrag überprüft werden.

Zur Erkennung von Kampagnen werden Zeitverläufe untersucht. Grundlage dafür sind einfache linguistische Clusterverfahren, die für jeden Tag die veröffentlichten Beiträge thematisch »clustern«. Bestimmte Themenstränge können auf diese Weise schon sehr frühzeitig erkannt werden. Dies wird unterfüttert mit dem NewsGuard-Score. In Bezug auf die US-Wahl zeigt sich dabei etwa, dass Beiträge mit Korruptionsvorwürfen und Vorwürfen der Steuerhinterziehung gegen Hunter Biden ab dem 14. Oktober 2020 zunächst von wenig vertrauenswürdigen Quellen publiziert wurden. Erst später griffen die vertrauenswürdigeren Quellen das Thema ebenfalls auf.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Fake-News-Kampagne #StoptheSteal

Das Thema Wahlbetrug durch Briefwahl, das schließlich in die Kampagne #StoptheSteal mündete, war im Beobachtungszeitraum hingegen durchgängig präsent. Es erfuhr am 24. Oktober 2020 einen starken Zuwachs. Anders als bei deutlich sachbezogenen Themen, etwa dem zum gekündigten Atomabkommen mit dem Iran, ist im Thema »Wahlbetrug« der Anteil von Beiträgen aus den weniger vertrauenswürdigen Quellen besonders hoch.

www.fkie.fraunhofer.de/de/
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.