ChatGPT gibt Antworten, die stark von der amerikanischen Kultur geprägt sind. Selbst in anderen Sprachen spiegeln die Texte überwiegend westliche Sichtweisen wider. Eine neue Studie zeigt, dass regionale Unterschiede bei der KI kaum eine Rolle spielen.
KIs mit einseitiger Perspektive
Familien- und Beziehungsfragen beantwortet ChatGPT stets mit einem US-amerikanischen Blickwinkel. Egal, in welcher Sprache die Nutzer ihre Fragen stellen, die KI passt ihre Antworten kaum an regionale Eigenheiten an. Eine Untersuchung der University of Puget Sound zeigt: Zwar wird die Sprache des Fragenden übernommen, die kulturellen Besonderheiten bleiben jedoch außen vor.
Immer gleiche Weltanschauung
Forschungsleiter Gareth Barkin erklärt: “Selbst wenn sie mehrere Sprachen fließend beherrschen, behalten große Sprachmodelle wie ChatGPT, Claude und Gemini ihre westliche Weltanschauung bei. Die Produktion grammatikalisch korrekter indonesischer, arabischer, suahelischer oder hindischer Texte ändert jedoch nichts an der zugrundeliegenden Weltanschauung, die diese Systeme kommunizieren. Sie passen ihre Einstellung nicht an die Besonderheiten der Menschen an.”
Der Grund dafür liegt laut Barkin in der Trainingsbasis der Modelle. ChatGPT und andere KI-Tools greifen überwiegend auf englischsprachige Quellen aus den USA zurück. Meta hat etwa sein Open-Weight-Modell LLaMA 2 mit rund 90 Prozent englischen Texten trainiert. Beim Nachfolgemodell LLaMA 3 seien lediglich fünf Prozent der Daten nicht englischsprachig. Andere kommerzielle Modelle nutzten ähnliche Quellen. Sprachen wie Arabisch, Bengali oder Hausa sind dagegen stark unterrepräsentiert.
Übersetzung statt Anpassung
Zudem übersetzen KIs Fragen zunächst ins Englische und formulieren Antworten in der gleichen Sprache, bevor sie den Text zurück in die Sprache des Nutzers übertragen. Barkin erklärt: “Er erhält einen fehlerfreien Text in seiner bevorzugten Sprache, doch die dahintersteckende Logik stammt weitgehend aus den USA.”
Für die Firmen sei dieser Ansatz notwendig, da regionsspezifische Trainingsmodelle zu teuer seien. “Man trainiere ein Modell mit dem riesigen englischsprachigen Web und nutze dann mehrsprachige Ausgaben, um globale Märkte zu bedienen”, so Barkin. Die westliche Perspektive sei kein Fehler, sondern das Ergebnis einer gewinnorientierten Wissensproduktion.
“Das, was wie ein technisches Ergebnis aussieht, ist in Wirklichkeit ein strukturelles, das davon geprägt ist, wer über den Reichtum und die Infrastruktur verfügt, um diese Systeme aufzubauen. Die eingebettete Weltanschauung ist kein Fehler; sie ist das Ergebnis, wenn Wissensproduktion gewinnorientiert ist.”
(vp/pressetext.redaktion)