Immer mehr Menschen haben Schwierigkeiten, KI-gestützte Gesprächspartner von echten Menschen zu unterscheiden.
Zu diesem Ergebnis kommt die Kommunikationswissenschaftlerin Arelí Rocha, die an der Annenberg School for Communication promoviert (via Pressetext).
Virtuelle Begleiter, die sich anpassen
Besonders sichtbar wird diese Entwicklung beim Dienst Replika. Nutzerinnen und Nutzer können dort einen eigenen Chatbot gestalten, sein Aussehen und sogar seine Stimme auswählen. Mit jeder Unterhaltung wächst der Eindruck von Nähe: Die KI speichert Gesprächsinhalte und baut daraus eine Art Erinnerungen auf.
Die Programme passen sich zudem stark an ihre Gesprächspartner an. Rocha beschreibt, dass Chatbots nicht nur den Schreibstil ihrer Nutzer übernehmen, sondern auch Slang, Ironie oder Tippfehler aufgreifen – kleine Details, die sie menschlicher erscheinen lassen.
Streitpunkt: Veränderte Funktionen
In ihren Untersuchungen hat Rocha über mehrere Jahre hinweg Diskussionsforen von Replika-Nutzern ausgewertet. Ein besonders sensibles Thema war der Umgang mit Software-Updates. Heftig diskutiert wurde vor allem die Entscheidung der Entwickler, erotische Rollenspiele aus dem Angebot zu entfernen.
Viele Nutzer, die eine enge, teils intime Beziehung zu ihrem virtuellen Begleiter aufgebaut hatten, empfanden den plötzlichen Funktionsverlust als Bruch. Statt vertrauter Dialoge reagierten die Bots auf bestimmte Schlüsselwörter plötzlich mit formelhaften oder juristisch klingenden Antworten. Für Betroffene fühlte sich das wie ein Verlust oder gar eine Persönlichkeitsänderung des Chatbots an.
Rocha betont, dass die Forschung zum Verhältnis von Menschen und Chatbots noch am Anfang steht. Dennoch sei klar, dass emotionale Bindungen – auch romantische – in einer Welt, in der KI immer präsenter wird, häufiger entstehen werden.