Im Alltag wird längst wie selbstverständlich auf die Möglichkeiten von KI zugegriffen – von ChatGPT über KI-Videos bis hin zur Objekterkennung per Smartphone. Auch im beruflichen Kontext spielt KI heute eine zentrale Rolle.
Dennoch besteht Aufklärungsbedarf hinsichtlich der Funktionsweise, denn anders als es der Name „Künstliche Intelligenz“ suggeriert, ist die Technologie nicht intelligent, sondern arbeitet mit Wahrscheinlichkeiten.
KI arbeitet nicht wissensbasiert, sondern probabilistisch, d.h. sie liefert keine „Wahrheit“, sondern die statistisch wahrscheinlichste Antwort – ausgehend von ihren Trainingsdaten. Aktuell sind rund 90 Prozent aller KI-Projekte nicht erfolgreich, erreichen keinen positiven Business Case. Ursächlich sind weniger die fehlende Datenqualität oder Rechenleistung, häufiger scheitern sie an der Tatsache, dass die Unternehmen eine nichtdeterministische Technologie mit den deterministischen Methoden des klassischen IT-Managements steuern. Dieses Missverhältnis produziert systematisch Fehler. Der Schlüssel liegt in einem Paradigmenwechsel: weg von der Suche nach der „einen Wahrheit“, hin zu probabilistischem Denken.
#1 KI ist stochastisch – IT-Management ist es meist nicht
Klassische IT-Systeme sind deterministisch: Gleicher Input erzeugt reproduzierbaren Output. Darauf basieren stabile Anforderungen, fixe Spezifikationen und lineare Roadmaps. KI-Modelle hingegen arbeiten mit Wahrscheinlichkeiten. Sie erkennen Muster, liefern wage Vorhersagen und zeigen gewisse Schwankungen. Zwei Eigenschaften von KI sind dabei zentral: Erstens können gleiche Eingaben leicht unterschiedliche Ergebnisse erzeugen und zweitens ist jede Prognose eine Wahrscheinlichkeitsaussage – keine Gewissheit. Ergo: Wer KI wie klassische Software steuert, erzeugt zwangsläufig falsche Erwartungen an Genauigkeit, Stabilität und Vorhersagbarkeit und genau hier beginnt das wirtschaftliche Problem.
#2 Der Bullwhip-Effekt in der KI-Governance
Der Bullwhip-Effekt beschreibt, wie kleine Nachfrageschwankungen entlang einer Lieferkette zu immer größeren Ausschlägen führen. Ursache sind Verzögerungen, Fehlinterpretationen und Überreaktionen. Ein ähnlicher Effekt lässt sich in KI-Projekten beobachten: Normale Modellschwankungen werden als Fehler interpretiert und das Management reagiert mit KPI-Anpassungen, Strategiewechseln oder Budgetstopps. Jede dieser Korrekturen erzeugt ein zusätzliches Governance-Rauschen, denn Entscheidungen basieren auf der Annahme, es gebe eine „richtige“ Modellwahrheit, von der man abweicht. So verstärken sich kleine Unsicherheiten entlang der Projektkette und aus statistischer Normalität wird organisatorische Instabilität. Der eigentliche Schaden entsteht dabei jedoch nicht durch das Modell, sondern durch Übersteuerung.
#3 Typische Fehlannahmen im Management
Viele Organisationen sind auf Wahrheitsfindung ausgerichtet, sprich sie suchen das „richtige“ Modell, anstatt Wahrscheinlichkeiten zu managen. Abweichungen gelten als Qualitätsmangel, nicht als systemische Eigenschaft. Starre Roadmaps, welche die KI-Entwicklung wie ein klassisches Softwareprojekt behandeln, sind ebenfalls kontraproduktiv. Das Problem: Iteration, Datenverschiebungen und kontinuierliches Lernen passen nicht in lineare Meilensteinlogiken. Hinzu kommen KPIs, die Erfolg binär definieren und ökonomische Fehlkosten ausblenden. Bereits geringe Performance-Schwankungen lösen so strukturelle Eingriffe aus – personelle Wechsel, neue Zielvorgaben oder strategische Richtungsänderungen. Es entsteht ein sich selbst verstärkender Kreislauf aus Unsicherheit und Überreaktion, der den Business Case zerstört.
#4 Probabilistisches Denken als Ausweg
Der zwingend notwendige Wandel ist dabei weniger technologisch als vielmehr kognitiv. Probabilistisches Denken ist erforderlich. Das bedeutet, Entscheidungen auf Basis von Wahrscheinlichkeiten, Erwartungen und Risikobewertungen zu treffen. Die Unsicherheit wird damit nicht eliminiert, sondern quantifiziert und wirtschaftlich integriert. Die zentrale Frage lautet jetzt nicht mehr: „Ist das Modell richtig?“ Sondern: „Ist der erwartete wirtschaftliche Nutzen unter Unsicherheit positiv?“ Damit verschiebt sich der Fokus von der technischen Perfektion hin zur ökonomischen Rationalität. Es kann sogar sein, dass ein Modell mit einer geringeren Genauigkeit profitabler ist, wenn es Fehlkosten besser optimiert oder schneller adaptiert werden kann.
#5 Adaptive Governance statt Kontrollillusion
Erfolgreiche KI-Organisationen passen ihre Governance der stochastischen Natur der Technologie an. Modellvariabilität wird als Normalzustand akzeptiert und in Entscheidungsregeln integriert. Technische Metriken werden durch wirtschaftliche Zielgrößen ergänzt, etwa den erwarteten Nutzen oder die Rendite. An die Stelle starrer Projektpläne treten iterative Entscheidungsarchitekturen mit klar definierten Feedback-Schleifen. Vorab festgelegte Eskalationslogiken verhindern impulsive Überreaktionen und die Führungskräfte lernen Wahrscheinlichkeitsaussagen strategisch zu bewerten und entwickeln eine eigene Unsicherheitskompetenz.
Die hohe Misserfolgsquote vieler KI-Initiativen resultiert aus einem strukturellen Missverständnis zwischen Technologie-Logik und Management-Logik.
Lumir Boureanu, compacer GmbH
Fazit
Die hohe Misserfolgsquote vieler KI-Initiativen resultiert aus einem strukturellen Missverhältnis zwischen Technologie-Logik und Management-Logik. Stochastische Systeme treffen auf deterministische Steuerungsmodelle. Variabilität kollidiert mit Stabilitätsanforderungen. Wer probabilistische Systeme deterministisch führt, erzeugt einen Governance-Bullwhip-Effekt: Kleine Unsicherheiten werden durch Managementreaktionen zu großen wirtschaftlichen Problemen verstärkt. KI wird erst dann nachhaltig profitabel, wenn Unternehmen diese Unsicherheit nicht länger bekämpfen, sondern systematisch managen – durch probabilistisches Denken, adaptive Governance und ökonomisch fundierte Entscheidungsmodelle.
| KI in der Praxis: Beispiel E-Rechnung |
| Um den weltweiten Zahlungsverkehr zu verbessern, wurde ein branchenübergreifender Standard, für das Format elektronischer Daten im Geschäftsverkehr eingeführt. Einer diese Standards ist EDIFACT. An diesem Beispiel lässt sich die Wirkungsweise von KI exemplarisch visualisieren: Die Frage nach dem offiziellen Feld-Code einer Dokumentennummer in einer EDIFACT-Nachricht lässt sich ohne die Angabe der Releasenummer nicht eindeutig beantworten. Selbst mit einer korrekten Versionsangabe besteht die Gefahr, dass die KI eine falsche Angabe liefert, weil sie auf die statistisch häufigste Variante zurückgreift und da es zwischen den Versionen D.96A und D.22A Veränderungen können sich hier Ungenauigkeiten einschleichen, denn die KI liefert die wahrscheinlichste Antwort – nicht zwingend die korrekte. Das ist nicht zuletzt deshalb problematisch, weil die KI-basierte Antwort richtig wirkt, obwohl sie falsch ist. Erst wenn die KI mit dem Fehler konfrontiert wird, relativiert sie ihre Aussage. Ergo: KI ersetzt kein Fachwissen, sie ergänzt es. |