Die meisten Data Stacks wurden für das Reporting entwickelt – nicht für Systeme, die kontinuierlich lernen und handeln. Diese Diskrepanz wird deutlich, wenn Unternehmen KI einsetzen wollen.
In allen Branchen ist dasselbe Muster zu beobachten: Unternehmen investieren massiv in KI-Tools und -Experimente. Doch sobald die Initiativen über die Pilotphase hinausgehen, verlangsamt sich deren Fortschritt oder kommt ganz zum Erliegen. Der Grund liegt im geringen Reifegrad der Daten. Bis zu 62 % der Unternehmen kämpfen mit Defiziten in zentralen operativen Fähigkeiten. Dazu gehören Faktoren wie Zuverlässigkeit, Automatisierung, Standardisierung und Beobachtbarkeit. Datenteams verwenden oft einen großen Teil (durchschnittlich 53 %) ihrer Kapazitäten für die Wartung von Datenpipelines. Das Problem liegt nicht in mangelnder Ambition oder Innovationskraft. Es ist vielmehr grundlegender Natur: Ohne Datenstrategie gibt es keine KI-Strategie. Trotzdem starten viele Teams ohne eine solche Grundlage.
Die wahre Hürde für die KI-Einführung
Wenn KI-Initiativen nicht skaliert werden können, liegt die Ursache selten in der technischen Komplexität. Häufiger sind es grundlegende operative Defizite wie fragmentierte Daten, inkonsistente Definitionen, unklare Zuständigkeiten und unzuverlässige Datenpipelines.
Moderne Unternehmen arbeiten mit Hunderten von Systemen, darunter SaaS-Anwendungen, Transaktionsplattformen, operative Datenbanken und Legacy-Umgebungen. Jedes dieser Systeme deckt einen Teil des Geschäfts ab, aber nur wenige sind aufeinander abgestimmt. Wenn Daten unvollständig oder widersprüchlich sind, erzeugen KI-Modelle Ergebnisse, die zwar auf den ersten Blick überzeugend aussehen, auf die man sich aber nicht verlassen kann.
Unternehmen, die KI erfolgreich implementiert haben, konzentrieren sich hingegen zuerst auf die Grundlagen: Sie konsolidieren Daten in einer Single Source of Truth, standardisieren Definitionen und stellen sicher, dass Daten stets korrekt und verfügbar sind. Diese Arbeit bleibt meist unsichtbar, aber sie entscheidet darüber, ob KI ein Pilotprojekt bleibt oder Bestandteil der täglichen Entscheidungsfindung wird.
Datenqualität, Governance und Vertrauen
Doch der Zugriff auf Daten allein reicht nicht aus. KI-Systeme sind nur so zuverlässig wie die Qualität der Daten, auf denen sie basieren. Deshalb müssen Governance, Sicherheit und Compliance als zentrale Anforderungen behandelt werden, nicht als nachgelagerte Themen.
In der Praxis braucht es hierfür klare Zuständigkeiten, Nachvollziehbarkeit, strenge Zugriffskontrollen und Datenschutz. Unternehmen sollten überall, wo das möglich ist, auf Automatisierung setzen. So stellen sie sicher, dass sie Governance, Sicherheit und Compliance systematisch und nachvollziehbar skalieren können. KI-Systeme, die auf einer manuellen, ad hoc durchgeführten Datenverwaltung basieren, können nicht vertrauenswürdig sein.
Eine gut konzipierte Governance bremst Teams nicht aus, sondern beseitigt Unsicherheiten und Konflikte. Denn Vertrauen in Daten bedeutet weniger Aufwand für die Validierung und mehr Zeit für deren Nutzung. Genau dieses Vertrauen ist der Schlüssel für den Sprung von KI- Experimenten zum produktiven Alltagseinsatz.
Wie zum Beispiel bei Honeywell: Der Industriekonzern aggregiert Daten aus mehreren Jahrzehnten und unterschiedlichen Systemen, darunter Service-Tickets, Produktanleitungen, Wartungsprotokolle, Informationsartikel und technische Publikationen, um das Wissen von Ingenieuren und Technikern zu erweitern. Das genAI-Team „hat inzwischen ausreichende Sicherheitsvorkehrungen und Kontrollmechanismen eingerichtet, sodass wir sicher sein können, dass kein geistiges Eigentum, keine proprietären Daten und Fachwissen offengelegt werden“, sagt Suresh Venkatarayalu, Chief Technology und Innovation Officer bei Honeywell Connected Enterprise.
Skalierung von KI braucht operative Disziplin
Der Einsatz von KI in großem Maßstab erfordert zudem eine Infrastruktur, die Wachstum bewältigen kann, ohne dass dadurch das operative Risiko steigt. Manuelle Datenpipelines, fragile Integrationen und unternehmensspezifische Workflows führen zu Fehlerquellen und bei steigendem Datenvolumen, wachsender Datenvielfalt und -nutzung potenzieren sich diese.
Eine moderne, automatisierte Datenintegration reduziert diese Komplexität. Sie trennt die Mechanismen des Data Movement von den Systemen, die sie steuern, absichern und kontrollieren. Über diesen Ansatz können Unternehmen die Datenerfassung und -transformation sowie den Zugriff auf Daten skalieren und gleichzeitig eine einheitliche Sicherheit und Governance über alle Umgebungen hinweg gewährleisten.
Ebenso wichtig ist, dass Teams dadurch KI-Workloads in unmittelbarer Nähe zu den Daten und unter einem einheitlichen Governance-Modell ausführen können. Das minimiert unnötiges Data Movement sowie Sicherheits- und Compliance-Risiken, während es die Time-to-Value beschleunigt.
Ziel ist es, den operativen Aufwand für den Betrieb der Dateninfrastruktur zu beseitigen, sodass sich Teams auf die sinnvolle Nutzung von Daten konzentrieren können.
KI als Herausforderung für Betriebssysteme
Unternehmen, die KI als systemische Herausforderung begreifen, investieren frühzeitig in solide Datenfundamente. Um langfristige Ergebnisse zu erzielen, priorisieren sie Zuverlässigkeit vor Geschwindigkeit, Automatisierung vor manuellen Prozessen und Governance vor Ad-hoc-Zugriffen.
Mit der zunehmenden Verbreitung von KI wird sich die Kluft zwischen Unternehmen mit einer starken Datenbasis und solchen, die keine haben, weiter vergrößern. Erfolgreich werden nicht die sein, die zu Beginn die schnellsten Fortschritte erzielen, sondern diejenigen, die die operative Disziplin aufbauen, die für eine Skalierung erforderlich ist.
Auch wenn wir sie „Künstliche Intelligenz“ nennen: KI selbst erzeugt keine Intelligenz. Sie verstärkt lediglich das, was bereits vorhanden ist. Ohne eine zuverlässige Datenbasis legt diese Verstärkung aber auch bestehende Schwachstellen schnell offen.