Verbraucher trauen KI nicht, weil Empathie fehlt

Pegasystems hat Verbraucher auf der ganzen Welt gefragt, wie wichtig ihnen Moral, Empathie und ethisches Verhalten im Geschäftsleben sind. Was trauen die Verbraucher Künstlicher Intelligenz (KI) in diesem Kontext zu? Das Ergebnis ist alarmierend.

Den Verbrauchern fehlt das Vertrauen in KI. Sie verstehen nicht, inwieweit sie ihre Interaktionen mit Unternehmen besser und effizienter gestalten kann. Das ist das Ergebnis einer aktuellen Umfrage von Pegasystems, dem Softwareunternehmen, das die digitale Transformation bei weltweit führenden Unternehmen unterstützt. Die Studie, die vom Forschungsunternehmen Savanta durchgeführt und auf der PegaWorld in Las Vegas vorgestellt wurde, befragte 5.000 Verbraucher auf der ganzen Welt zu ihren Ansichten über KI, Moral, ethisches Verhalten und Empathie.

Anzeige

Obwohl KI genau die maßgeschneiderten, relevanten Ergebnisse liefert, nach denen die Menschen verlangen, sind viele Verbraucher noch nicht von den Vorteilen der Technologie überzeugt. Viele Unternehmen setzen KI ein, um das Kundenerlebnis zu verbessern. Deshalb ist es für Unternehmen wichtig, die Wahrnehmungen, Anliegen und Präferenzen ihrer Kunden zu verstehen und ernst zu nehmen. Zu den wichtigsten Ergebnisse der Studie zählen unter anderem:

Verbraucher urteilen zynisch über die Unternehmen, mit denen sie Geschäfte machen

68% der Befragten gaben an, dass Unternehmen verpflichtet seien, das zu tun, was für den Kunden moralisch richtig ist – auch über das hinaus, was gesetzlich vorgeschrieben ist. Dennoch vertrauen 65% der Befragten nicht darauf, dass Unternehmen ihr Bestes geben und glauben nicht, dass die Unternehmen ihre Technologie nutzen, um vertrauensvoll mit ihnen zu kommunizieren. In einer Welt, die vorgibt, kundenorientiert zu sein, glaubt die Mehrheit der Verbraucher nicht, dass Unternehmen sich tatsächlich um sie kümmern oder genügend Einfühlungsvermögen für ihre individuelle Situation entwickeln.

Verbraucher trauen der KI nicht über den Weg

Weniger als die Hälfte (40%) der Befragten stimmten zu, dass KI das Potenzial hat, den Kundenservice von Unternehmen zu verbessern. Aber nur weniger als ein Drittel (30%) fühlen sich auch wohl mit Unternehmen, die KI nutzen. Nur 9% gaben an, dass sie mit der Idee “sehr zufrieden” seien. Gleichzeitig macht sich ein Drittel aller Befragten Sorgen, dass Maschinen ihren Arbeitsplatz übernehmen. Mehr als ein Viertel (27%) führen auch den “Aufstieg der Roboter und die Versklavung der Menschheit” als Problem an.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Viele glauben, KI sei nicht in der Lage, unvoreingenommene Entscheidungen zu treffen

Mehr als die Hälfte (53%) der Befragten gaben an, dass KI möglicherweise die Entscheidungsfindung verzerre. Ebenfalls 53% waren sogar der Meinung, dass die KI Entscheidungen immer auf Grundlage der Vorurteile der Person treffen wird, die ihr die ersten Anweisungen gegeben hat. Das sei nach Ansicht der Befragten unabhängig davon, wie viel Zeit vergangen sei.

Menschen präferieren die menschliche Note

70% der Befragten sprechen, wenn es um Kundenservice geht, lieber mit einem Menschen als einem KI-System oder einem Chatbot. 69% der Befragten stimmen zu, dass sie eher geneigt wären, einem Menschen die Wahrheit zu sagen als einem KI-System. Und wenn es darum geht, Entscheidungen über Leben und Tod zu treffen, sagten überwältigende 86% der Menschen, dass sie Menschen mehr vertrauen als der KI.

Die meisten glauben, KI habe weder Moral noch Empathie

Nur 12% der Verbraucher stimmten zu, dass KI den Unterschied zwischen Gut und Böse erkennen kann. Über die Hälfte (56%) der Kunden glauben nicht, dass es möglich sei, Maschinen zu entwickeln, die sich moralisch verhalten. Lediglich 12% glauben, dass sie jemals mit einer Maschine interagiert haben, die Empathie gezeigt hat.

Unternehmen können das Vertrauen und die Zufriedenheit ihrer Kunden steigern, indem sie alle ihnen zur Verfügung stehenden Werkzeuge nutzen, um mehr Empathie in ihren Interaktionen zu zeigen. Empathie ist bislang kein allgemeines Unternehmensmerkmal, wenn es darum geht, die Rentabilität zu maximieren. Unternehmen, die ihre Kundenbindung verbessern wollen, müssen darüber nachdenken, wie sie KI-basierte Erkenntnisse mit ethischen Überlegungen verbinden.

Zitate und Kommentare

“Unsere Studie hat ergeben, dass nur 25% der Verbraucher einem KI-System vertrauen würden, das über einen Bankkredit entscheidet, den sie haben wollen”, sagt Dr. Rob Walker, Vice President, Decisioning and Analytics bei Pega. “Die Verbraucher bevorzugen es, mit einem Menschen zu sprechen, weil sie ihm stärker vertrauen und glauben, seine Entscheidung beeinflussen zu können. Wir brauchen KI-Systeme, die fähig sind, Unternehmen bei ethischen Entscheidungen zu unterstützen. Bei der Vergabe eines Bankkredits heißt das: Es ist nicht nur wichtig, alle regulatorischen Prozesse genau zu befolgen. Das Bankinstitut muss sich auch die Frage stellen, ob es ethisch richtig ist, ein Darlehen an einen bestimmten Menschen zu vergeben.”

Ein wichtiger Fortschritt in der Entwicklung der künstlichen Intelligenz werden Richtlinien sein, die ethische Überlegungen über das maschinelle Lernen hinaus stellen. Dadurch sind KI-Systeme in der Lage, Entscheidungen zu treffen, die von den Kunden als einfühlsam empfunden werden. Die KI sollte nicht der einzige Schiedsrichter des Mitgefühls sein. Durch eine Kultur der Empathie kann die KI jedoch als wirksames Instrument genutzt werden, mit dem sich Unternehmen von ihren Mitbewerbern am Markt unterscheiden.

Über die Studie:

Pega befragte 5.000 Verbraucher zu ihren Ansichten über künstliche Intelligenz, Moral, ethisches Verhalten und Empathie. Teilgenommen haben Verbraucher aus den Vereinigten Staaten, Großbritannien, Frankreich, Deutschland und Japan.

Weitere Informationen:

Die Studie “Was Verbraucher wirklich über KI denken” finden Sie hier.

www.pega.com
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.