Große Sprachmodelle wie GPT-4 zeigen in Online-Debatten eine überraschende Stärke: Sie argumentieren überzeugender als Menschen – jedenfalls dann, wenn sie Informationen über ihr Gegenüber nutzen können.
Zu diesem Ergebnis kommt eine aktuelle Studie unter Leitung von Francesco Salvi von der Eidgenössischen Technischen Hochschule Zürich (via Pressetext).
In einem kontrollierten Experiment analysierten Salvi und sein Forschungsteam das argumentative Verhalten von 900 US-amerikanischen Teilnehmenden. Diese diskutierten über kontroverse gesellschaftspolitische Fragen – etwa über ein Verbot fossiler Brennstoffe – entweder mit anderen Menschen oder mit dem Sprachmodell GPT-4.
Einige der Diskussionspartner erhielten demografische Angaben über ihr Gegenüber: darunter Alter, Geschlecht, Bildungsstand, ethnische Zugehörigkeit, politische Einstellung und Beschäftigungssituation. Ziel war es, zu untersuchen, ob Argumente durch diesen Informationsvorsprung besser auf das Gegenüber zugeschnitten und damit überzeugender formuliert werden können.
GPT-4 punktet mit maßgeschneiderten Argumenten
Das Ergebnis war deutlich: In Fällen, in denen GPT-4 personalisierte Informationen zur Verfügung standen, war es in 64,4 Prozent der Fälle überzeugender als der menschliche Diskussionspartner. Ohne Zugriff auf diese Informationen war die Überzeugungskraft von GPT-4 hingegen kaum besser als die der menschlichen Vergleichsgruppe.
Diese Zahlen verdeutlichen das Potenzial, aber auch die Herausforderung im Umgang mit künstlicher Intelligenz in Debattensituationen. „Die Ergebnisse unterstreichen die Fähigkeit von GPT-4, maßgeschneidert überzeugende Argumente zu liefern“, erklärt Francesco Salvi. Gleichzeitig warnt er vor möglichen Risiken: „Weitere Forschung ist nötig, um die mit ihrem Einsatz in der Überzeugungsarbeit verbundenen Risiken zu mindern.“
Einfluss durch KI: Eine offene Frage
Der Einsatz von Sprachmodellen in digitalen Diskursen nimmt zu – sei es in sozialen Medien, in Chatbots oder im Kundenkontakt. Die Erkenntnisse der Studie werfen nun neue ethische und gesellschaftliche Fragen auf: Was passiert, wenn Künstliche Intelligenz gezielt eingesetzt wird, um Meinungen zu beeinflussen? Und wie kann ein verantwortungsvoller Umgang mit diesen Modellen gewährleistet werden?
Die Untersuchung zeigt jedenfalls klar: Sprachmodelle wie GPT-4 können menschliche Kommunikation nicht nur imitieren – sie können sie unter bestimmten Bedingungen sogar übertreffen.