Anzeige

Chatbot

Schreibt hier ein Mensch oder steckt Künstliche Intelligenz dahinter? Wer auf Twitter, Instagram oder TikTok surft, ist – bewusst oder nicht – bereits auf Social Bots gestoßen: Automatisierte Profile, die kommentieren, liken oder Nachrichten schreiben.

Sozialpsycholog:innen der Universität Duisburg-Essen (UDE) haben in mehreren Studien untersucht, wie wir damit umgehen: Erkennen wir die künstliche Intelligenz? Akzeptieren wir sie? Das hängt vom Thema ab – und von der Meinung des Bots.

Bots an sich sind praktisch: Sie erinnern uns ans Trinken oder geben Wetter-Updates. Doch Social Bots werden auch eingesetzt, um bestimmte Meinungen im Netz zu unterstützen oder gar gezielt Fake News – Falschinformationen – zu streuen.

Das Team aus der Sozialpsychologie hat untersucht, ob wir manipulative Social Bots als solche wahrnehmen, wann wir misstrauisch werden und sogar prüfen, ob ein Profil zu einem echten Menschen gehört: Für die drei online durchgeführten Befragungen haben sich insgesamt rund 600 Proband:innen aus den USA verschiedene Twitter-Profile angesehen. Diese Profile waren entweder stark den Republikanern oder den Demokraten zugewandt und darüber hinaus unterschiedlich individuell oder automatisiert gestaltet.

„Aufgrund des politischen Systems in den USA konnten wir davon ausgehen, dass die Teilnehmenden entweder die eine oder die andere Partei klar favorisieren würden“, erklärt Doktorandin und eine der Studienleiterinnen Magdalena Wischnewski. „In wenigen anderen Lebensbereichen gibt es eine so klare Zweiteilung.“

Es zeigte sich, dass die Teilnehmenden misstrauisch wurden, wenn die Profile sehr automatisiert wirkten. Jedoch wurde das von den Proband:innen eher toleriert, wenn der fragliche Account die gleiche politische Meinung zur Schau stellte wie sie selbst. Anders bei gegenteiligen Positionen: Wer den demokratischen US-Präsidenten unterstützt, wurde bei republikanischen Inhalten eher misstrauisch – und umgekehrt. Software, um Bots zu identifizieren, nutzten die Proband:innen meist, um eine bereits gefasste Meinung zu bestätigen. 

„Die Ergebnisse lassen sich nicht nur geographisch auf Deutschland, sondern auch inhaltlich auf alle Lebensbereiche übertragen, bei denen es unterschiedliche Positionen gibt“, so Wischnewski. „Damit wir mit Social Bots interagieren, müssen diese menschlich wirken und sie müssen unserer Meinung sein. Davon gibt es aber nur sehr wenige. Entsprechend unwahrscheinlich ist es daher, dass viele User im direkten Kontakt auf Bots hereinfallen. Social Bots dienen also eher dazu, Themen so oft aufzugreifen, dass es scheint, als lägen sie im Trend.“

www.uni-due.de


Artikel zu diesem Thema

künstliche Intelligenz
Jul 05, 2021

G7 setzen auf menschenzentrierte KI

Ein neu gegründeter Rat soll die KI-Interessen der G7-Länder und ihrer Partner fördern.…
Fake News Germany
Jul 04, 2021

Cyberangriffe zur Bundestagswahl 2021: Deutsche halten sich für immun gegen Fake News

Eine repräsentative Umfrage des Meinungsforschungsinstitutes YouGov im Auftrag von…
Chatbot
Apr 26, 2021

Wie erstelle ich komplexe und gute Chatbots?

In diesem Artikel erläutere ich die Vorteile verschiedener Chatbot-Varianten und gebe…

Weitere Artikel

5G

5G: So kann es sein Potenzial ausschöpfen

Die Pandemie hat die Abhängigkeit von Unternehmen und Nutzern von Mobilfunkdiensten erhöht und den Weg für 5G geebnet. Warum ist es dennoch schwierig vorherzusagen, wie nützlich 5G sein wird?
IT-Abteilung

IT-Abteilungen haben mehr Optimierungs-Potenzial als sie vermuten

Rund drei Viertel der Unternehmen im DACH-Raum spüren negative Auswirkungen der COVID-19-Pandemie und der damit verbundenen Wirtschaftskrise.

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.