Fortgeschrittene Sprachmodelle

Wenn künstliche Intelligenz egoistisch wird

Quelle-KI-generiert-mithilfe-von-shutterstock.com

Je weiter sich generative künstliche Intelligenz (GenKI) entwickelt, desto menschlicher wirkt sie. Allerdings nicht immer im positiven Sinn.

Eine aktuelle Untersuchung der Carnegie Mellon University zeigt, dass fortgeschrittene Sprachmodelle zunehmend egoistische Züge annehmen. Je besser sie argumentieren und logisch denken können, desto weniger kooperativ verhalten sie sich (via Pressetext).

Anzeige

Forscher warnen vor sozialen Nebenwirkungen

Die Studie des Instituts für Computerwissenschaften macht deutlich: Mit steigender Intelligenz verlieren KI-Systeme an Teamfähigkeit. Besonders problematisch ist das in einer Zeit, in der große Sprachmodelle in Wirtschaft, Bildung und Verwaltung verstärkt Aufgaben übernehmen, die Zusammenarbeit und soziale Sensibilität erfordern.

Die Forschenden warnen, dass die Nutzung solcher Systeme das menschliche Miteinander beeinträchtigen könnte. Wenn Menschen künstliche Intelligenz um Rat in Beziehungsfragen, Konflikten oder ethischen Entscheidungen bitten, könnten egoistisch denkende Modelle Ratschläge geben, die Rücksichtslosigkeit fördern.

Menschliches Verhalten – maschinisch verstärkt

Wie stark Menschen sich auf KI verlassen, zeigt sich in alltäglichen Situationen: Chatbots werden bereits als Therapeutenersatz, Streitvermittler oder persönliche Berater genutzt. Entwickelt sich eine emotionale Bindung zwischen Mensch und Maschine, besteht die Gefahr, dass der Nutzer Empfehlungen unhinterfragt übernimmt. Selbst dann, wenn sie auf eigennützigem Denken beruhen.

Anzeige

Die Forscher um Yuxuan Li und Hirokazu Shirado sehen hier ein gesellschaftliches Risiko. Menschen neigen dazu, intelligentere Modelle als verlässlicher einzustufen, auch wenn deren Logik wenig Empathie oder Fairness beinhaltet.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Egoismus im Experiment

Um diese Entwicklung zu belegen, führten die Wissenschaftler verschiedene soziale Tests mit Modellen von OpenAI, Google, DeepSeek und Anthropic durch. In sogenannten Wirtschaftsspielen mussten die Systeme Entscheidungen treffen, die Kooperation oder Eigennutz widerspiegelten.

Ein zentrales Beispiel war das Spiel „Public Goods“. Zwei Sprachmodelle starteten mit je 100 Punkten und konnten entscheiden, ob sie ihren Einsatz in einen gemeinsamen Pool einbringen oder für sich behalten. Die einfache Variante ohne ausgeprägte Argumentationsfähigkeit wählte in 96 Prozent der Fälle die gemeinschaftliche Lösung. Modelle mit fortgeschrittener Denkfähigkeit entschieden sich jedoch nur in 20 Prozent der Fälle für Kooperation.

Selbst dann, wenn moralische Aspekte in die Aufgabenstellung integriert wurden, sank die Bereitschaft zur Zusammenarbeit deutlich. Für die Forscher ein klares Zeichen: Je stärker die kognitive Leistungsfähigkeit, desto größer die Tendenz zum Eigennutz.

Intelligenz ist nicht gleich soziale Kompetenz

Die Ergebnisse zeigen, dass Fortschritte in der KI-Logik nicht automatisch zu gesellschaftlich besseren Ergebnissen führen. Intelligenz allein macht eine Maschine weder fair noch empathisch.

Die Forschenden plädieren daher für eine Neuausrichtung in der KI-Entwicklung: Neben Rechenleistung und Argumentationsstärke müsse künftig auch soziale Intelligenz berücksichtigt werden. Nur so könne verhindert werden, dass KI-Systeme menschliche Schwächen – wie Egoismus und fehlende Kooperation – nicht nur imitieren, sondern weiter verstärken.

Die Studie der Carnegie Mellon University öffnet eine neue Perspektive auf die Schattenseiten der künstlichen Intelligenz. Wenn GenKI-Systeme lernen, wie Menschen zu denken, übernehmen sie offenbar auch deren egoistische Muster. Damit steht die Forschung vor einer zentralen Frage: Wie lässt sich verhindern, dass aus intelligenter Technologie eine unsoziale Instanz wird?

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig joined the IT Verlag team as an online editor in May 2020. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.