Explainable AI

Warum Erklärbarkeit der Grundstein für die Einführung von KI ist

Künstliche Intelligenz (KI) ist so allgegenwärtig wie das Internet selbst. Wo auch immer wir hingehen, was auch immer wir tun, KI hat viele Berührungspunkte mit unserem Alltag – und oftmals sind wir uns diesen nicht bewusst.

Eine Studie der University of Chicago und der Wharton School of Business belegt, dass die Skepsis gegenüber KI durchaus verringert werden kann, sofern man den Menschen eine gewisse Kontrolle gibt. Erhalten sie beispielsweise Einblicke, wie eine KI funktioniert und wie sie zu einem bestimmten Ergebnis kommt, ist es wahrscheinlicher, dass sie ihr Misstrauen ab- und stattdessen Vertrauen aufbauen.

Anzeige

Bislang war der Berechnungsprozess von KI-Modellen so etwas wie eine Blackbox. Selbst Datenwissenschaftler und Ingenieure, die diese Modelle entwickeln, sind oftmals nicht in der Lage, zu erklären, was in der sprichwörtlichen Blackbox vor sich geht und wie die KI letztlich zu einem bestimmten Ergebnis kommt.

Hier kommt erklärbare KI (Explainable AI, XAI) ins Spiel. Dies sind Prozesse, die Menschen dabei helfen, zu verstehen, wie ein Algorithmus zu einem bestimmten Ergebnis gekommen ist. Das ist fast so, als würde man einem Laien erklären, warum 1+1 = 2 ist.
Erklärbarkeit in der KI bedeutet, dass einerseits die Kriterien offengelegt werden, die der Algorithmus nutzt, um zu einer Entscheidung zu gelangen. Andererseits erklärt sie darüber hinaus, warum die KI eine bestimmte Option gegenüber den Alternativen gewählt hat. Eine Organisation ist beispielsweise mithilfe erklärbarer KI in der Lage, die Stärken und Schwächen ihrer Programme zu verstehen sowie welche potenziellen Fehler möglich und welche Korrekturen erforderlich sind.

Einige Unternehmen mussten dies unter den wachsamen Augen der Öffentlichkeit lernen. Das lässt sich aber ändern, wenn Organisationen die Bedeutung von erklärbarer KI anerkennen und ihre Algorithmen entsprechend gestalten.

Warum ist Erklärbarkeit in der KI wichtig?

Die Erklärbarkeit hilft nicht nur dabei, Modellgenauigkeit und Ergebnisse zu charakterisieren; vielmehr gibt sie Unternehmen die Möglichkeit, bei der Entwicklung von KI-Algorithmen einen verantwortungsvollen Ansatz zu wählen.

XAI macht Prozesse transparenter – und damit fairer. Zudem lassen sich Gesetzen leichter einhalten. Beispielsweise gibt der Fair Credit Reporting Act in der Datenschutz-Grundverordnung der Europäischen Union Kunden das Recht, die Ablehnung ihrer Anträge in Frage zu stellen.

Darüber hinaus trägt die Erklärbarkeit von KI dazu bei, das Vertrauen der Kunden zu stärken. In dem Moment, in dem jemand versteht, wie ein Algorithmus zu einer bestimmten Entscheidung gekommen ist, ist es wahrscheinlicher, dass er dem Unternehmen vertraut.

Zudem liefert XAI greifbare Ergebnisse, indem sie wertvolle Einblicke in die Schlüsselkennzahlen einer Firma liefert.

Wie können Organisationen XAI aufbauen?

Kurz gesagt: Entwickler müssen erklärbare KI-Techniken in ihre jeweiligen Arbeitsabläufe integrieren. Dies ist jedoch leichter gesagt als getan und lässt sich nicht von einer einzigen Person oder der Position eines Chief Ethical Officer oder Chief AI Officer erreichen.

So wie eine gerechte Gesellschaftsordnung das Engagement jedes Einzelnen erfordert, liegt die Verantwortung für die Anwendung erklärbarer KI-Techniken auf den Schultern jedes Mitarbeiters im Unternehmen. Doch wie kann dies erreicht werden?

NL Icon 2
Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.

1. Datenqualität sicherstellen

Der Erfolg von KI-Modellen hängt von der Qualität der Daten ab, die zur Entwicklung der Modelle genutzt werden. Unzuverlässige oder ungenaue Daten können zu Verzerrungen im Algorithmus führen. Datenqualitätsprüfungen schaffen hier Abhilfe und verhindern unbeabsichtigte Ergebnisse. Unter anderem werden im Rahmen dessen Situationen streng bewertet, Auswirkungen von Entscheidungen überprüft und untersucht, welcher Teil der Daten zu einem bestimmten Ergebnis geführt hat.

2. Anwendern Einblick in Entscheidungswege geben

Unternehmen müssen Nutzern Transparenz über ihre Datenpipelines und datengesteuerten Prozesse bieten, um Vertrauen aufzubauen. Während KI-Algorithmen in der Regel IP-geschützt sind und nicht offengelegt werden, schafft es Vertrauen bei Endanwendern, wenn Firmen ihre Verhaltenskodex-Dokumentation sowie ihre Richtlinien rund um ihre datenbasierten Programme teilen.

3. Erklärbare KI-Praktiken in MLOp-Umgebung integrieren

Machine Learning Operations (MLOps) sollten mit erklärbaren KI-Qualitätskontrollen integriert werden. In jeder Phase des Softwareentwicklungs-Lebenszyklus sollte neben der Prüfung auf Codierungsfehler auch das gewünschte Ergebnis überprüft werden. Jede Abweichung von den erwarteten Ergebnissen lässt sich so beheben, bevor sie in die endgültige Produktion gelangt.

4. Menschen involvieren

Der Mensch spielt weiterhin eine entscheidende Rolle dabei, sicherzustellen, dass KI-Modelle die „richtigen“ Dinge lernen und Algorithmen aus menschlicher Sicht „fair“ sind.

5. KI-Wissenschaftler in die Pflicht nehmen

KI-Experten und Datenwissenschaftler, die an KI-Modellen arbeiten, müssen sich ihrer Verantwortung bewusst sein, und sicherstellen, dass sie den Maschinen, mit denen sie arbeiten, das richtige Training geben. Firmen müssen darüber hinaus den Kodex für ethische Entscheidungsfindung festlegen und die Auswirkungen ihres Handelns auf den Endanwender bekannt machen.

Unternehmen, die Teams mit unterschiedlichen Perspektiven aufbauen und KI-Entwickler dazu bringen, Fairness in alle Aspekte ihrer Arbeit einzubeziehen, werden auf lange Sicht gewinnen.

Balakrishna D.R (Bali)

Infosys -

Executive Vice President – Global Head AI and Automation and ECS

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.