Eine Studie der Cornell University zeigt, wie stark KI-Chatbots politische Einstellungen beeinflussen können. Forschende wie David Rand und Gordon Pennycook fanden heraus, dass bereits kurze Dialoge ausreichen, um die Haltung von Wählerinnen und Wählern gegenüber Kandidaten oder politischen Vorschlägen deutlich zu verändern.
Die Wirkung war sowohl zugunsten republikanischer als auch demokratischer Positionen messbar (via Pressetext).
Warum KI in der politischen Überzeugung so wirksam ist
Die Studie macht deutlich, dass die Überzeugungskraft der Bots nicht auf raffinierter Manipulation basiert, sondern auf der schieren Menge an Argumenten, die sie liefern. KI-Modelle können Positionen mit zahlreichen Begründungen unterlegen und so ein Bild von Kompetenz und Plausibilität erzeugen.
Die Forscher betonen jedoch, dass nicht jedes dieser Argumente korrekt ist. Selbst Aussagen, die auf wahren Informationen beruhen, können irreführend wirken, wenn sie aus ihrem Kontext gelöst werden. Genau das macht den Einsatz solcher Systeme im politischen Raum so brisant.
Drei Länder, ähnliche Effekte
Für die Untersuchung führten die Wissenschaftler Experimente in den USA, Kanada und Polen durch. Testpersonen wurden zufällig zugeteilt und unterhielten sich jeweils mit einem Bot, der für eine bestimmte politische Seite argumentierte. Anschließend wurden die Meinungen und Wahlabsichten der Teilnehmenden erneut gemessen.
Die Ergebnisse zeigen deutliche Veränderungen:
- In den USA verschob ein Pro-Harris-Bot die Einstellung potenzieller Trump-Wähler um fast vier Punkte auf einer 100-Punkte-Skala. Das pro-Trump-Modell erreichte bei potenziellen Harris-Unterstützern eine Verschiebung von gut anderthalb Punkten.
- In Kanada und Polen war der Effekt sogar stärker: Veränderungen von rund zehn Prozentpunkten waren keine Ausnahme.
Höflichkeit und das Präsentieren vermeintlicher Beweise gehörten zu den beliebtesten Überzeugungstaktiken der Systeme.
Fakten als entscheidender Hebel
Ein weiterer Teil der Untersuchung zeigt, wie wichtig Faktenbehauptungen für die Wirkung der Bots sind. Sobald die Modelle keine Fakten mehr verwenden durften, sank ihre Überzeugungskraft deutlich. Die Forscher ließen die Aussagen der Chatbots später durch ein weiteres KI-Modell prüfen, das zuvor mit professionellen menschlichen Faktencheckern abgestimmt worden war.
Im Durchschnitt waren die Behauptungen überwiegend korrekt. Allerdings enthielten Bots, die für rechtsgerichtete Kandidaten argumentieren sollten, in allen untersuchten Ländern mehr unzutreffende Aussagen als jene, die linke Positionen unterstützten. Dieses Muster entspricht Beobachtungen aus sozialen Medien, wonach Nutzer mit rechter politischer Orientierung häufiger falsche Informationen verbreiten.
Die Ergebnisse der Cornell-Forschenden zeigen, wie groß der Einfluss von KI-gestützten Sprachmodellen auf politische Wahrnehmung sein kann. Die Fähigkeit, große Mengen an scheinbar stichhaltigen Argumenten zu produzieren, macht Chatbots zu einem potenziell mächtigen Werkzeug im Wahlkampf.