Es gibt viele gute Gründe, künstliche Intelligenz einzusetzen, und immer mehr Unternehmen tun dies auch. Dennoch ist KI kein Allheilmittel, und am Ende lässt sich das Rennen nicht durch Versprechen, sondern durch Umsetzung gewinnen. Entscheidend sind eine hochwertige und zuverlässige Datenbasis sowie das Konzept des „Fluidic Enterprise“.
Der Einsatz von künstlicher Intelligenz bietet Unternehmen zahlreiche Möglichkeiten, wettbewerbsfähiger zu werden. Die Erwartungen an mehr Produktivität, eine verbesserte Datenanalyse und eine schnellere Problemlösung sind entsprechend hoch. Ein Bericht der Bundesnetzagentur von 2025 zeigt, dass 30 Prozent der Unternehmen künstliche Intelligenz unterstützend im Arbeitsalltag einsetzen.
Viele sind bei ausgewählten Pilotprojekten, einzelnen Prozessen oder Bereichen noch in der Erprobungsphase. Je größer das Unternehmen, desto höher in der Regel der Reifegrad. Der häufigste Einsatzbereich ist die Erstellung und Analyse von Text, Sprache, Bildern und Code, gefolgt von Empfehlungen oder Entscheidungsfindung, der Erklärung oder Vorhersage von Ereignissen sowie der automatisierten Produktionssteuerung. Vor allem generative KI hat dazu beigetragen, dass sich die Bereiche nochmals erheblich erweitert haben. Ein interessanter Aspekt des Berichts: Etwa sieben von zehn Unternehmen planen keinen (erneuten) Einsatz von KI. Über 20 Prozent geben an, dass ihre Erwartungen an den Einsatz von KI nur teilweise oder fast gar nicht erfüllt worden sind. Woran liegt das?
Warum viele Projekte scheitern
Die Studienlage deckt sich mit Erfahrungen aus der Praxis: Fast jedes Unternehmen hat inzwischen in teure Pilotprojekte, Proofs of Concept oder Plattformen investiert. Trotzdem bleiben die Ergebnisse überschaubar. Ein Großteil der Vorhaben mit generativer KI bleibt in einer frühen Phase stecken oder scheitert ganz, und die Mehrheit aller KI-Initiativen skalieren nicht. Der Grund: Viele Unternehmen sehen in KI den heiligen Gral und setzen sie vorschnell auf unzureichender oder falscher Datenbasis in veralteten Systeme und schlechten Prozessen ein.

Generative KI sorgt dann dafür, dass diese mangelhaften Daten bzw. Erkenntnisse exponentiell anwachsen. Die Folge: Potenziale und Erwartungen bleiben unerfüllt, es werden sogar falsche Entscheidungen getroffen; letztlich wird eine „falsche Wahrheit“ geschaffen und Worst Case als richtig akzeptiert. Bei der Analyse der Datenbasis kommt erschwerend hinzu, dass es oft keine Dokumentationen gibt, und der ehemalige Entwickler der Datenplattform nicht mehr Owner – und damit auch sein Know-how weg ist.

Wie kann es besser gehen? Erstens: Mit der richtigen Einstellung. Viele meinen, wenn sie Daten haben, können sie KI nutzen. Das ist grundsätzlich korrekt. Dennoch kann KI nicht alles heilen, vor allem keine falschen Daten und schlechte Prozesse, die vorher schon schlecht oder nicht vorhanden waren. Dementsprechend muss – zweitens – die Datenbasis stimmen. Dies bezieht sich auf die Datenqualität, die Operationalisierung von Daten Pipelines mit entsprechender Datenharmonisierung und die Datenarchivierung. Drittens: Indem Unternehmen das wertvolle Wissen und Urteilsvermögen ihrer Mitarbeitenden nutzen.

Jede Organisation trägt ungenutzte Intelligenz in sich, sie ist aber oft in Silos verschlossen, in starren Workflow vergraben oder geht im operativen Rauschen unter. Wird die Intelligenz der Mitarbeitenden („Human Intelligence“) mit dem unternehmensweiten Prozesswissen („Data Intelligence“) mit adaptiven KI-Modellen („Artificial Intelligence“) verbunden, entsteht ein entscheidender Hebel für Transformation, der über die Technologie allein hinausgeht.
Belastbaren Unterbau schaffen
Der Startpunkt, um einen belastbaren Unterbau in Form einer Data Fabric zu schaffen, ist die Analyse der vorhandenen Landschaft, der Stärken und Schwächen von Plattform und Prozessen, und der Chancen und Gefahren bei einer Transformation. Daraus entstehen in Abstimmung mit IT und Endnutzern aus den Fachbereichen eine strategische Roadmap und Fachkonzepte bezüglich Architektur und Datenprodukten. Die Datenbasis ist der wichtigste Faktor in diesem Zusammenhang.
Mit einem klar strukturierten Ansatz, Governance, Compliance und Projekten, wird der echte Unternehmenswert von KI greifbar.
Lars Hermanns, Nagarro
Um ein hochwertiges und zuverlässiges Fundament zu schaffen, empfiehlt es sich, Datenprodukte in einem Gold Layer in einer modernen, durchgängigen Medaillon-Architektur oder Lakehouse Architektur zu definieren, an die KI-Anwendungsfälle anschließend „andocken“ können. Die Medaillon-Architektur umfasst eine Reihe von Datenebenen, die die Qualität der gespeicherten Daten kennzeichnen. Die ursprünglich rohen Daten werden mehrfach validiert und transformiert.
Als Gold Layer bezeichnet man die finale, kuratierte Datenebene, die hochgradig strukturierte, bereinigte Daten bereitstellt. Die Datenprodukte im Gold Layer sind mehrdimensionale Modelle mit Business Kontext z.B. als Kimball Stern- oder Snowflakeschema. Ziel dieser Architektur ist es, die Daten schrittweise so zu verbessern, dass sie sich für den Einsatz von KI und Machine Learning eignen.
KI sinnvoll integrieren
Ist das Fundament geschafft, kommt es auf die Art an, wie KI in die Unternehmensstrategie und bestehende Strukturen integriert wird. Statt isolierter Experimente entstehen aus dem beschriebenen Dreiklang – Human, Data und Artificial Intelligence – Anwendungen, die reale Geschäftsprobleme lösen, Abläufe beschleunigen und zu fundierteren Entscheidungen führen. Experten bezeichnen dies als „Fluidic Enterprise“ – ein Ansatz, der den Wert der KI real messbar macht, ohne dass die Organisation disruptiv verändert werden muss. Menschen, Daten und Entscheidungen werden zusammen betrachtet, wobei die Mitarbeitenden im Mittelpunkt stehen. KI wird dort integriert, wo bisher Informationsflüsse und Entscheidungsprozesse ins Stocken geraten sind.
Ein zentraler Vorteil: Mit einem klar strukturierten Ansatz, Governance, Compliance und Projekten, bei denen konkrete Ergebnisse und ein messbarer ROI verknüpft sind, wird der echte Unternehmenswert von KI greifbarer. Margen, Wachstum und Anpassungsfähigkeit verändern sich spürbar und lassen sich in Quartalen statt Jahren erzielen. Man steckt nicht mehr fest oder ist in der Pilotfalle gefangen.
Wie das Ganze praktisch funktionieren kann, zeigen zahlreiche Anwendungsbeispiele, wie beispielsweise aus dem Bereich Predictive Maintenance. Vorausschauende Wartung folgt einem datengetriebenen Ansatz, bei dem Maschinen- und Prozessdaten in Echtzeit analysiert werden, die Ergebnisse interpretiert und die Modelle laufend mit dem Wissen der Mitarbeiter verbessert werden, um Wartungen vor einem Ausfall durchzuführen. Weltweit gewinnt dieser Ansatz massiv an Bedeutung, da 81 Prozent der befragten Maschinen- und Anlagenbauer bereits intensiv daran arbeiten, Ausfallzeiten zu minimieren und die Lebensdauer von Maschinen zu erhöhen.