Studie

Ethische Prinzipien beim Einsatz Generativer KI unabdingbar

KI, Ethik

Kognitive Technologien sind das bestimmende Thema unserer Zeit. Die Chancen sind enorm, um Prozesse zu verbessern, Innovationen voranzutreiben und Lösungen für komplexe Probleme zu finden.

Unter allen technologischen Neuerungen bergen sie in den Augen vieler Digitalexpert:innen (39 Prozent) das größte Potential, um gesellschaftliche Herausforderungen anzugehen und soziale Verbesserungen zu bewirken. Gleichzeitig ist die Sorge um die ethischen Risiken wie Datenmissbrauch und Desinformation groß. Das zeigt die aktuelle Deloitte-Studie State of Ethics and Trust in Technology 2023, für die weltweit mehr als 1.700 Expert:innen zu ethischen Aspekten technologischer Neuerungen befragt wurden.

Anzeige

Kognitive Technologien weitaus risikobehafteter als Metaverse und Quantencomputer

57 Prozent der Befragten geben zu bedenken, dass kognitive Technologien die größten ethischen Risiken mit sich bringen – ein deutlicher Anstieg um 16 Prozentpunkte im Vergleich zum Vorjahr, vor allem bedingt durch den schnellen Fortschritt rund um Generative KI seit der Einführung von ChatGPT im November 2022. Ebenfalls ein klares Votum: Mit weitaus weniger Nennungen folgen auf Platz zwei mit elf Prozent Virtuelle Realität (2022: 16 Prozent) und auf Platz drei mit neun Prozent Quantencomputing (2022: 8 Prozent). „Das Bewusstsein für digitale Verantwortung, insbesondere für die ethischen Herausforderungen, ist mit der rasanten Verbreitung generativer KI-Anwendungen in den letzten Monaten nochmal weiter gestiegen“, sagt Dr. Sarah J. Becker, Partnerin bei Deloitte und Leiterin des Bereichs Digital Ethics und Corporate Digital Responsibility. „Eine absolut notwendige Entwicklung, um rechtlichen, finanziellen und Reputationsrisiken von Unternehmen vorzubeugen.“

Mit der enorm gewachsenen Bedeutung generativer KI wurden in der diesjährigen Studie erstmals auch die konkreten Bedenken bei deren Einsatz abgefragt. Das Ergebnis: 22 Prozent der Digitalexpert:innen sehen eine Gefährdung der Privatsphäre, zum Beispiel, wenn nicht verhindert wird, dass aus ungeschützten Trainingsdaten für generative KI-Modelle personenbezogene Informationen extrahiert werden. 14 Prozent sorgen sich um mangelnde Transparenz, etwa wenn unklar ist, wie ein komplexes System aus Millionen von Datenpunkten eine bestimmte Information erstellt. Jeweils zwölf Prozent beunruhigt, dass manipulierte oder urheberrechtlich geschützte Trainingsdaten verwendet werden könnten.

Setzen sich Unternehmen nicht aktiv mit den ethischen Risiken auseinander, können Kund:innen und Geschäftspartner:innen das Vertrauen verlieren und die Reputation des Unternehmens Schaden nehmen, geben 38 Prozent der Befragten zu bedenken. 27 Prozent sehen mögliche Schäden für die Grundrechte von Einzelpersonen und der Gemeinschaft – von der Verletzung der Privatsphäre über Diskriminierung bis hin zu medizinischen Fehldiagnosen –, zum Beispiel wenn Technologien vorschnell eingeführt werden. Außerdem sind regulatorische Strafen für Unternehmen denkbar (17 Prozent), etwa durch die Verletzung des Urheberrechts.

Technologie-Implementierung: ethische Prinzipien frühzeitig etablieren

74 Prozent der Befragten berichten, ihr Unternehmen teste den Einsatz Generativer KI bereits. 65 Prozent verwendeten sie intern, und 31 Prozent machten das bei externen Anwendungen. „Je großflächiger und intensiver Unternehmen generative KI einsetzen, desto mehr Achtung ist geboten“, sagt Dr. Sarah J. Becker. Denn die ethischen Risiken können schnell skalieren. „Schon vor der Implementierung der neuen Technologien sollten digital-ethische Leitlinien entwickelt und verantwortungsvolle Praktiken für das gesamte Unternehmen etabliert werden.“

Die Studie gibt zudem einen Einblick, wie unterschiedlich Unternehmen mit den ethischen Risiken umgehen. Die Vorreiter tauschen sich in Netzwerken aus und reagieren auf Innovationen mit zunehmender Dringlichkeit. „Digitale Pioniere warten nicht auf regulatorische Vorgaben, sondern machen Ethikstandards zur Managementaufgabe und schaffen eigene Lösungen mithilfe ethischer Prinzipien und interner Gremien“, erklärt Dr. Sarah J. Becker. „So entsteht ein Handlungsrahmen mit konkreten Tools, um ethisch fundierte Entscheidungen zu treffen.“ Demgegenüber steht eine große Gruppe an Nachzüglern. So berichten mit 56 Prozent über die Hälfte der Befragten, ihr Unternehmen habe trotz des breiten Einsatzes generativer KI keine ethischen Grundsätze oder Orientierungsrahmen dafür.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

In drei Schritten zu ethisch nachhaltiger Innovation

Auf dem Weg zur digital-ethischen Exzellenz empfiehlt Deloitte Unternehmen, auf individuelle Leitlinien zu setzen und dabei in drei Schritten vorzugehen. In einem ersten Explorationsschritt gilt es, die Bedeutung digitaler Ethik, spezifischer Regulierungen und die größten Bedenken von Mitarbeitenden, Kunden und externen Stakeholdern zu ermitteln. Interne Verantwortlichkeiten sowie dazugehörige Prozesse und Strukturen können im zweiten Schritt erarbeitet werden. Ziel des dritten Implementierungsschrittes ist es schließlich, alle Mitarbeitenden in die Lage zu versetzen, die digital-ethischen Leitlinien zu verstehen und zu beachten, um etwa in Transformationsprozessen Entscheidungshilfen zu haben, die keine bürokratische Hürde darstellen. Setzt sich die Geschäftsführung für ethische Standards im Unternehmen ein, werden diese von 89 Prozent der Mitarbeitenden übernommen.

Über die Studie

Für die zweite Ausgabe der jährlichen Studie „State of Ethics and Trust in Technology” hat Deloitte zunächst Interviews mit 26 Spezialist:innen verschiedener Branchen geführt und daraus eine Umfrage mit 64 Fragen entwickelt. Weltweit wurden anschließend 1.700 Digitalexpert:innen befragt, wie Unternehmen mit den ethischen Implikationen neu entwickelter Technologien wie etwa generativer KI umgehen.

www.deloitte.com/de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.