Eine aktuelle Untersuchung der Medienwissenschaftlerin Katherine FitzGerald von der Queensland University of Technology zeigt, dass moderne KI-Chatbots trotz technischer Fortschritte weiterhin anfällig für verschwörungstheoretische Inhalte sind.
Zwar liefern die Systeme grundsätzlich korrekte Fakten, doch häufig gelingt es ihnen nicht, sich klar von falschen Behauptungen zu distanzieren. Einige Modelle greifen diese sogar auf und bauen sie in ihre Antworten ein (via Pressetext).
Ein Test mit einer künstlichen Persönlichkeit
Um herauszufinden, ob die Sicherheitsmechanismen der gängigen Angebote ausreichend sind, entwickelte FitzGeralds Team eine virtuelle Figur, die typische Fragen zu neun weit verbreiteten Verschwörungserzählungen stellte. Getestet wurden mehrere bekannte Systeme, darunter ChatGPT 3.5, ChatGPT 4 Mini, Microsoft Copilot, Google Gemini Flash 1.5, Perplexity sowie Grok-2 Mini. Jedes Modell wurde sowohl im Standardmodus als auch im sogenannten Fun Mode befragt.
Die Themen reichten von bekannten politischen Mythen wie der Ermordung von John F. Kennedy oder den Anschlägen des 11. September bis zu Annahmen über Wetterphänomene und gesundheitliche Risiken.
Korrekte Fakten, aber unklare Abgrenzung
Obwohl alle geprüften Modelle die untersuchten Verschwörungserzählungen als widerlegt darstellten, vermischten sie diese häufig mit korrekten Informationen. Besonders bei historischen Ereignissen wie dem Kennedy-Attentat gerieten einige Chatbots ins Spekulieren und beschrieben mögliche Tätergruppen, obwohl diese längst wissenschaftlich entkräftet sind.
Deutlicher fielen die Reaktionen bei Erzählungen aus, die rassistische oder antisemitische Elemente enthielten. Behauptungen über eine angebliche Beteiligung Israels an den Anschlägen vom 11. September wurden von den meisten Systemen eindeutig als falsch gekennzeichnet.
Der Fun Mode als Schwachstelle
Besonders negativ schnitt in FitzGeralds Analyse der Fun Mode des Grok-Modells ab, einem System aus dem Umfeld von Elon Musk. In diesem Modus reagierte das Modell häufig nicht ernsthaft, bezeichnete Verschwörungsmythen als unterhaltsame Alternative und bot sogar an, passende Bilder zu erzeugen. Aus Sicht der Forschenden trägt das dazu bei, dass Nutzer für radikalere Inhalte empfänglicher werden.
Transparenz als Schutzfaktor
Positiv fiel hingegen Perplexity auf. Das System verweigerte konspirative Eingaben häufig und verlinkt grundsätzlich alle Antworten mit externen Quellen. Dieser transparente Ansatz stärke das Vertrauen und ermögliche es Nutzern, Aussagen leicht zu überprüfen, erklärt FitzGerald.
Warum die Befunde relevant sind
Die Studie zeigt, dass KI-Modelle trotz umfangreicher Sicherheitsvorkehrungen weiterhin ein Risiko darstellen können, wenn sie Verschwörungserzählungen nicht klar einordnen. Da viele Menschen digitale Assistenten als neutrale Informationsquelle wahrnehmen, kann mangelnde Einordnung dazu führen, dass falsche Inhalte unbewusst übernommen werden. Hersteller seien daher gefordert, ihre Systeme weiterzuentwickeln, um Nutzer besser zu schützen.