Meta: Polarisierung trotz Algorithmus-Änderung

Meta
Bildquelle: Derick-P.Hudson / Shutterstock.com

Die Plattformen von Meta spielen eine entscheidende Rolle bei der Versorgung der User mit Infos von Parteigängern, denen sie wahrscheinlich zustimmen würden. Forscher der New York University bezweifeln jedoch, dass die Strategien, die Meta einsetzen könnte, um Viralität und Engagement bei seinen sozialen Netzwerken zu verhindern, die politische Einstellung von Personen wesentlich beeinflussen würde. Laut Co-Forschungsleiter Joshua Tucker haben Algorithmen trotzdem einen sehr großen Einfluss darauf, was die Menschen sehen.

Feeds prägen Ansichten

Die ersten vier Studien der Reihe von Untersuchungen haben die Fachmagazine “Science” und “Nature” veröffentlicht. Dabei handelt es sich um eine Zusammenarbeit zwischen den Forschern und den Analysten des Unternehmens. Ziel war es herauszufinden, wie sich soziale Medien auf die politische Polarisierung und das Verstehen sowie die Meinungen der Menschen in Hinblick auf Nachrichten, Regierung und Demokratie auswirken.

Anzeige

Das Team hat diese Themen im Vorfeld der US-Präsidentschaftswahl im Jahr 2020 untersucht. Als Teil des Projekts veränderten die Wissenschaftler die Feeds von tausenden Menschen, die Facebook und Instagram im Herbst 2020 nutzten. Sie bekamen in der Folge mehr Informationen als normalerweise erwartbar zu sehen. Die Forscher kommen zu dem Schluss, dass derartige Veränderungen nur einen geringen Einfluss hatten.

Diese Studienergebnisse stützen wahrscheinlich die anhaltende Argumentation der Unternehmen, wonach Algorithmen nicht die Ursache von politischer Polarisierung und Unruhen sind. Experten argumentieren hingegen, dass diese Ergebnisse die Technologieunternehmen nicht davon freisprechen, welche Rolle sie bei der Verstärkung der Spaltung, politischen Unruhen oder dem Glauben der User an Verschwörungen spielen.

Auch sollten derartige Studien, laut Experten wie Nora Benavidez von Free Press, den Social-Media-Plattformen keine Ausrede dafür liefern, um weniger gegen virale Fake News unternehmen zu müssen. Auch laut Michael W. Wagner von der University of Wisconsin, einer der unabhängigen Beobachter dieses Forschungsprojekts, handelt es sich nur um gute wissenschaftliche Belege dafür, dass es sich eben nicht um nur ein einziges Problem handelt, das leicht zu lösen ist.

Kurzfristige Maßnahmen

Umfragen der User zur Feststellung ihrer politischen Überzeugungen zeigen, dass Veränderungen des Feeds kaum Auswirkungen auf das Ausmaß der Polarisierung, das politische Wissen oder das politische Verhalten haben, das die Menschen offline an den Tag legen. Die ehemalige Facebook-Mitarbeiterin Frances Haugen, die mit Tausenden internen Dokumenten an die Öffentlichkeit gegangen war, kritisiert das Timing des aktuellen Experiments.

Im Herbst 2020 hätten sich Tausende von Usern bereits den Meta-Gruppen angeschlossen, die ihre Feeds überflutet hatten. Meta hatte damals zum Schutz vor den extremsten Postings bereits eine ganze Reihe von Maßnahmen gesetzt. Laut Haugen wurde jedoch der Großteil dieser Maßnahmen nach der Wahl wieder rückgängig gemacht.

Bei einem anderen Experiment haben die Forscher die Auswirkung der Einschränkung der Sichtbarkeit von viralem Content im Feed der User getestet. Konnten die Teilnehmer die Postings ihrer Freunde nicht mehr sehen, kamen sie mit deutlich weniger politischen Inhalten in Kontakt. Diese User reagierten auch nicht so häufig auf Content und wussten weniger über Politik. Ihre politische Polarisation oder politischen Haltungen blieben jedoch trotzdem unverändert.

www.pressetext.com

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.