Anzeige

künstliche Intelligenz

Künstliche Intelligenz gilt als die Technologie der Zukunft. Um die Akzeptanz ihr gegenüber weiter zu steigern, müssen KI-basierte Entscheidungen jedoch nachvollziehbar sein.

Eine neue Studie im Rahmen des KI-Innovationswettbewerbs des Bundesministeriums für Wirtschaft und Energie (BMWi) befasst sich ausführlich mit der Erklärbarkeit von KI. 

Eine Vielzahl von Services und Produkten in sämtlichen Lebensbereichen verdeutlichen bereits, welch enormes Potenzial in KI-Methoden steckt. Allein in Deutschland wird nach Erhebungen des eco- Verbands der deutschen Internetwirtschaft erwartet, dass mit entsprechenden Anwendungen im Jahr 2025 Umsätze in Höhe von fast 500 Milliarden Euro erzielt werden. Das entspricht ca. 13 Prozent des Bruttoinlandsprodukts. Zentraler Erfolgsfaktor ist dabei die Erklärbarkeit der Entscheidungen, die auf Basis von KI getroffen werden, denn nur wenn sich die Entscheidungen auch erklären lassen, bringen Nutzerinnen und Nutzer den Anwendungen die nötige Akzeptanz entgegen. Erklärbarkeit spielt zudem eine entscheidende Rolle im Rahmen von Zulassungs- und Zertifizierungsverfahren sowie zur Erfüllung von Transparenzpflichten. 

Für welche Branchen erklärbare KI zwingend nötig ist, welche Erklärungsstrategien für welche Anwendungsfälle geeignet sind und wie die richtige Strategie gefunden werden kann, damit hat sich die Studie „Erklärbare KI – Anforderungen, Anwendungsfälle und Lösungen“ beschäftigt. Die Studie wurde im Auftrag des BMWi im Rahmen der Begleitforschung des KI-Innovationswettbewerbs durchgeführt. Mit dem Programm werden ausgewählte, KI-basierte Leuchtturmprojekte gefördert.  

Notwendigkeit der Erklärbarkeit: Je KI-Modell und Branche unterschiedlich

Ein Teil der Studie befasst sich damit, welche KI-Verfahren heute und in Zukunft genutzt werden und somit potenziell erklärbar gemacht werden müssen. Eine entsprechende Umfrage ergab, dass aktuell vor allem statistische bzw. probabilistische Modelle, Entscheidungsbäume und neuronale Netze – also Modelle, die besonders gut geeignet sind, z.B. Bild- und Textdokumente zu analysieren – im Einsatz sind. In Zukunft wird insbesondere Letzteren große Bedeutung eingeräumt. 

Dabei ist die Notwendigkeit der Erklärbarkeit auch abhängig von der jeweiligen Branche. Insbesondere in Anwendungsgebieten, in denen kritische Entscheidungen getroffen werden, kommt der Erklärbarkeit eine gewichtige Rolle zu. Oft ist diese sogar zwingend erforderlich, um etwa Zertifizierungen und Prüfsiegel zu erhalten oder die Erfüllung von Normen zu gewährleisten – beispielsweise in der Gesundheitsbranche, wo Fehlentscheidungen schwere Folgen nach sich ziehen können. Weitere wichtige Branchen sind die Finanzwirtschaft, Produktion, Bauwirtschaft oder die Prozessindustrie, wo Fehlentscheidungen oft mit hohen Kosten verbunden sind. Hier eingesetzte KI-Modelle, die ihre Entscheidungen nicht erklären können, werden in der Regel von Kund:innen und Anwender:innen schlicht nicht akzeptiert. 

KI-Modelle sollten transparent oder erklärbar sein

In der Studie werden KI-Modelle in zwei Klassen unterteilt, um klar abgrenzen zu können, welche Ansätze einer Erklärung bedürfen: White Box- und Black Box-Modelle. Bei White Box-Modellen liegt ein hoher Grad an Transparenz vor, sodass diese in der Regel selbsterklärend sind. Dazu zählen etwa Entscheidungsbäume, die im Allgemeinen nachvollziehbar aufgebaut sind. Somit sind einzelne Entscheidungen leicht vom Menschen überprüfbar.

Bei den sogenannten Black Box-Modellen ist die Lage anders: Diese Modelle sind nicht transparent und ihre Ergebnisse können nicht einfach nachvollzogen werden. Das ist zum Beispiel bei KI-Modellen wie neuronalen Netzen der Fall. Hier kommt das Konzept der Erklärbarkeit zur Anwendung, wobei zwischen zwei Typen unterschieden wird: Entscheidungserklärungen, die dabei helfen, individuelle, datenbezogene Entscheidungen nachzuvollziehen sowie Modellerklärungen, die dabei helfen, Wirkzusammenhänge von KI-Modellen zu verstehen. 

Muss ein Black Box-Modell erklärt werden, stehen Entwickler:innen eine Reihe mehr oder weniger etablierter Strategien zur Verfügung, die die Erklärbarkeit verbessern können. KI-Modelle können beispielsweise durch sogenannte Prototypen oder auch durch die Verwendung von Wissensdatenbanken erweitert werden, um die Modelle nachvollziehbarer zu gestalten. Entsprechende Wissensbasen können beispielsweise im Rahmen von KI-gestützten medizinischen Diagnoseverfahren genutzt werden, um die Symptome eines Patienten nachvollziehbar mit klar definierten Kriterien eines Krankheitsbildes aus wissenschaftlichen Publikationen abzugleichen. Eine weitere Strategie sind Stellvertretermodelle, bei denen auf Grundlage des komplexen Black Box-Modells ein simpleres White Box-Modell entwickelt wird, anhand dessen sich beispielsweise Regelmäßigkeiten ablesen lassen und somit Entscheidungen nachvollziehbarer werden. Im Bereich der Bildanalyse können Ansätze genutzt werden, mit denen auf Basis der Eingangsdaten dargestellt wird, welcher Bereich des Bildes ausschlaggebend für die Entscheidung ist.  

Entscheidungshilfe für Anwender:innen und KI-Entwickler:innen 

Selbstverständlich ist nicht jede Erklärungsstrategie auf jedes KI-Modell anwendbar. Die passende Strategie für die jeweilige Anwendung zu finden, fällt jedoch nicht immer leicht. Deshalb wurde im Rahmen der Studie ein Entscheidungsbaum entwickelt, der als Orientierungshilfe dienen soll. Auf Basis der Antworten auf eine Reihe von Fragestellungen werden den Nutzer:innen für sie passende Optionen aus den gängigsten Strategien und Werkzeugen für erklärbare KI empfohlen. Die Entscheidungshilfe kann in Zukunft durch neue Methoden ergänzt werden, um eine möglichst große Bandbreite möglicher Erklärungsstrategien abzubilden. So dient sie als erste Anlaufstelle für Entwickler:innen und Anwender:innen von erklärbarer KI. 

Die Studie zeigt, wie wichtig die Erklärbarkeit von KI heute bereits ist und in Zukunft auch für Endkund:innen oder Entscheider:innen im Management an Bedeutung gewinnen wird. Dafür muss vor allem die Grundlagenforschung und Herausbildung von Best Practices vorangetrieben werden und die Effizienz und Anwenderfreundlichkeit von KI-Modellen stärker ins Zentrum der Forschung rücken.

Die Studie sollte hier zum Download zur Verfügung stehen.

Lene Ganschow,
Lene Ganschow
, VDI/VDE Innovation + Technik GmbH

Artikel zu diesem Thema

Smart City
Jul 06, 2021

Unterstützende KI verbessert öffentliche Sicherheit und Smart Cities

In den letzten Jahren haben die Fortschritte im Bereich der künstlichen Intelligenz (KI)…
künstliche Intelligenz
Jun 28, 2021

Künstliche Intelligenz in der Cybersicherheit

Den Angriff kommen sehen und die Abwehr in Stellung zu haben, bevor es zum Schaden kommt:…

Weitere Artikel

Digitalisierung

Wie IT-Abteilungen die Transformation im Unternehmen vorantreiben können

Der digitale Wandel und disruptive Technologien verändern grundlegend die Art und Weise, wie Unternehmen arbeiten und ihren Kunden schnell und flexible einen Mehrwert bieten.
Glasfaserkabel

Dank Vorvermarktungsportal schnell Glasfaserausbauprojekte sichern

Gigabit-schnelles Internet über „Fiber to the home“, also Glasfaser bis in die Wohnung, ist die Zukunft. Für Communication Service Provider (CSPs), die ein Stück von diesem Kuchen wollen, gilt jetzt schnell sein.
5G

Revolution in Echtzeit: Tempo bei Ausbau für 5G-Netz

Der Mobilfunkstandard 5G ist um ein Vielfaches schneller als 4G und soll die mobile Welt mittelfristig komplett verändern. Die Pandemie hat dem Ausbau keinen Abbruch getan. Bis Jahresende soll es in Deutschland schon 30 Millionen Nutzer geben.
Europa Digitalisierung

Warum eine europäische digitale Souveränität gelingen kann

Seitdem der EuGH das transatlantische Datenschutzabkommen Privacy Shield für ungültig erklärt hat, werden verstärkt Rufe nach europäischer digitaler Souveränität laut. Kann das gelingen? Elmar Geese, COO bei Greenbone Networks, nennt fünf gute Gründe, warum…
künstliche Intelligenz

Künstliche Intelligenz ist die Mondlandung des 21. Jahrhunderts

Wie sieht die Welt von morgen aus? Wie können wir sie mit intelligenten Lösungen besser machen? Darüber spricht Co-CEO Ana Campos von Trivadis mit Persönlichkeiten, die Antworten haben.
Hotel

Digitalisierung unabdingbar für Erholung des Gastgewerbes

Das Gastgewerbe nimmt den Betrieb wieder auf. Doch in der Zwischenzeit sind die Anforderungen in den Bereichen Technologie und Digitalisierung gehörig gewachsen. Einige Betriebe der Branche konnten in punkto Digitalisierung durch die Entwicklung von…

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.