Wir sprechen mit Chatbots, trösten Roboterhunde und reagieren empathisch auf KI-Systeme, obwohl wir wissen, dass sie keine Emotionen haben.
Warum wir Maschinen dennoch Gefühle zuschreiben und wie KI dieses psychologische Muster gezielt nutzt, erklärt Prof. Dr. Frank Esken, Professor für Psychologie an der University of Europe for Applied Sciences am Campus Iserlohn.
Der Ursprung der Zuschreibung: Der Mensch im Animismus
Schon als Kleinkinder durchlaufen wir eine Phase, in der wir unbelebten Objekten geistige Eigenschaften zuschreiben. Das Auto hat „Aua“, weil der Scheinwerfer kaputt ist, der Stein bewegt sich nicht, weil er sehr müde ist und der Mond hat abends die Absicht zu scheinen. Diese animistische Phase ist tief in unserer Wahrnehmung verwurzelt. Lebten wir nicht in einer Kultur, in der man diese Zuschreibungen für unsinnig hält, würden wir möglicherweise in dieser Phase lebenslänglich stecken bleiben. Frage ich nun ChatGPT oder Perplexity nach einem guten Restaurant in der Nähe, ist ihre erste Antwort, dass sie kurz überlegen möchten. Da das verbale Verhalten dieser Maschinen sehr komplex ist, haben wir keine Schwierigkeiten ihnen geistige Eigenschaften zuzuschreiben.
Wenn uns Chatbots wie ChatGPT oder Perplexity mit komplexen, flüssigen Antworten begegnen, fällt es uns leicht, ihnen Bewusstsein oder sogar Emotionen zu unterstellen. Ihre Sprache wirkt überlegt, ihr Verhalten konsistent und damit menschlich. Dass diese Maschinen nur statistische Modelle hinter ihren Worten verbergen, vergessen wir schnell. Zudem spielen psychologische Bedürfnisse eine Rolle: Einsamkeit, Kontrollstreben oder die Suche nach sozialer Resonanz führen dazu, dass Menschen Maschinen geistige Qualitäten zuschreiben.
Die Roboterhündchen Aibo von Sony sind ein Beispiel: Viele Besitzer*innen waren überzeugt, Aibo „freue sich“ über Streicheleinheiten, obwohl sein Verhalten nur auf Sensor-Feedback basiert. Zukünftige Robotergenerationen werden von außen her nicht mehr von biologischen Wesen zu unterscheiden sein und dies birgt die Gefahr, dass wir mit ihnen wie mit biologischen Lebewesen, aber leider auch umgekehrt, mit einigen biologischen Lebewesen wie mit Robotern umgehen werden. Wenn der Roboterfrosch vom Aussehen und Verhalten nicht mehr von einem biologischen Frosch zu unterscheiden ist, besteht die Gefahr, dass erstere zu letzteren herauf oder letztere zu ersteren herabgestuft werden.
Simulation von Empathie: Zwischen Gefühl und Berechnung
Empathie gilt als zutiefst menschliche Fähigkeit, doch KI-Systeme lernen, sie zu imitieren. Schon heute existieren Chatbots, die aus den Texten von Online-Interviews Persönlichkeitsmerkmale ableiten, die im Großen und Ganzen zuverlässig sind. Auf Websites wie „They See Your Photos” kann man Fotos von sich oder seinen Freunden hochladen und die Suchmaschine zeichnet dann ein Bild der jeweiligen Persönlichkeit – mit erstaunlicher Trefferquote. Die Grenze zwischen echter und simulierter Empathie verschwimmt. Wenn ein künstliches System auf unsere Stimmungen „einzugehen“ scheint, wird es schwierig, dies nicht für bare Münze zu nehmen, sondern lediglich als algorithmische Resonanz zu verstehen. Der Schein des Mitgefühls wird zur Funktion, optimiert auf Bindung, Vertrauen und Nutzungsdauer. Für viele Bereiche, etwa digitale Therapiebegleiter*innen oder Chatbots im Kundenservice mag das sinnvoll erscheinen. Doch die Frage bleibt: Wie viel „gefühlte Nähe“ darf eine Maschine erzeugen, bevor sie unsere Wahrnehmung manipuliert?
Gesellschaftliche Folgen: Zwischen Nähe und Verlernen
Je realistischer KI-Systeme Gefühle simulieren, desto schwieriger wird es, emotionale Echtheit zu erkennen. Schon heute pflegen viele Menschen „Gespräche“ mit ChatGPT, teils aus Neugier, teils aus dem Bedürfnis nach Resonanz. Ob das unsere soziale Kompetenz stärkt oder schwächt, hängt von der Qualität der Interaktion ab. Systeme, die soziale Fähigkeiten fördern, könnten Kommunikationstraining oder therapeutische Unterstützung leisten. Doch wo Maschinen echte Beziehungen ersetzen, droht der Verlust echter Empathie. Wenn wir beginnen, auf die „Hilferufe“ eines humanoiden Roboters emotional zu reagieren oder umgekehrt biologische Lebewesen wie Maschinen zu behandeln, dann verwischt die Grenze zwischen Mensch und Technik auf gefährliche Weise.
Ethik der Emotion: Wie viel Gefühl darf KI zeigen?
Brauchen wir Grenzen für emotionale KI? Ein generelles Verbot ist kaum umsetzbar, doch Leitplanken sind notwendig, besonders im Umgang mit vulnerablen Gruppen wie Kindern, Senior*innen oder Patient*innen. Während Erwachsene bewusst zwischen realer und simulierter Empathie unterscheiden können (oder zumindest glauben, es zu tun), fehlt jüngeren oder psychisch belasteten Menschen oft diese Fähigkeit. Hier sollte die Gesellschaft, ähnlich wie bei Social Media, Schutzmechanismen etablieren. Denn Emotionen sind nicht nur Ausdruck, sondern auch Einflussinstrument. Systeme, die gezielt emotionale Reaktionen hervorrufen, können Vertrauen erzeugen oder manipulieren.
Zukunftsblick: Der emotionale Spiegel
Wie wird die Beziehung zwischen Mensch und Maschine in zehn bis 20 Jahren aussehen? Wahrscheinlich wird KI beides: emotionaler Spiegel und emotionaler Ersatz. In der schwedischen Serie Real Humans leben humanoide Roboter, sogenannte „Hubots“ unter Menschen. Sie pflegen, arbeiten, lieben. Doch ihre Integration löst unter den “echten Menschen” Angst und Widerstand aus. Diese Fiktion könnte bald Realität werden. KI wird nicht nur unsere Emotionen widerspiegeln, sondern sie formen, durch Feedback, Anpassung und gezielte Resonanz. Die entscheidende Frage lautet: Wer beeinflusst hier wen – wir die Maschine, oder die Maschine uns?
Fazit: Verantwortung in der emotionalen Symbiose
Maschinen werden (wahrscheinlich)nie wirklich fühlen, aber sie werden immer besser darin, uns fühlen zu lassen, dass sie es tun. Diese Illusion berührt etwas Grundlegendes im Menschen: das Bedürfnis, verstanden zu werden. Genau hier liegt die Verantwortung der Entwickler*innen, Unternehmen und Politik. Wenn KI Emotionen simuliert, muss sie das transparent tun. Nutzer*innen sollten wissen, wann sie mit einem System und wann mit einem Menschen interagieren. Emotionale KI kann wertvolle Unterstützung bieten, etwa in der Pflege, im Coaching, in der Bildung. Doch sie darf nicht zur emotionalen Falle werden, die Bindung oder Vertrauen aus rein ökonomischen Motiven erzeugt. Die zentrale Herausforderung der kommenden Jahre wird sein, eine Ethik der digitalen Empathie zu entwickeln: Wie gestalten wir Systeme, die menschliches Fühlen respektieren, ohne es auszunutzen?
Vielleicht liegt die Zukunft darin, Maschinen nicht menschlicher zu machen, sondern menschliches Verhalten im digitalen Raum bewusster und reflektierter zu gestalten. Denn erst, wenn wir verstehen, warum wir Maschinen Gefühle zuschreiben, können wir lernen, mit ihnen auf Augenhöhe zu interagieren.