Der Weg zum datenbasierten Unternehmen

Ohne Datenstrategie nützt Big Data wenig

Datenbasierte Analysen können enorme Optimierungs- und Einsparpotenziale in Unternehmen aufdecken – zumindest theoretisch. In der Praxis erweist sich das als schwierig umsetzbar: Vielen Unternehmen fehlen neben der performanten IT-Infrastruktur vor allem eine Datenstrategie und flexible Prozesse.

Es klingt verheißungsvoll: Mit Datenanalysen lässt sich das Business optimieren – von der Produktionssteuerung über den Kundenservice bis hin zu neuen Umsatzpotenzialen. Big Data und Data Analytics sind viel diskutierte Themen im Rahmen von Digitalisierung und Industrie 4.0. Die Daten sind da, ihre Erfassung und Speicherung kaum eine technische Herausforderung. Tatsächlich werden die Daten auch genutzt – allerdings nur punktuell, in einzelnen Abteilungen etwa oder um wöchentliche Management-Reports zu erstellen. So sind Business-Intelligence-Lösungen (BI) entstanden, die auf Datensilos basieren und ganz spezifische Analysen häufig im Self-Service bieten – nicht mehr als ein pragmatischer Anfang.

Anzeige

Daten sammeln ist noch keine Strategie

Denn BI und Data Analytics werden zumeist von der falschen Seite angegangen. Die nun zusätzlich erfassten Daten werden dem vorhandenen Geschäftsmodell übergestülpt: Das Management sucht Parameter, welche sich aus den gesammelten Daten herauslesen lassen. Ein Beispiel: Ein mittelständischer Maschinenbauer erfasst Kundendaten samt Kaufhistorie in seinem CRM-System. Mit dem Ziel, die Daten für die Geschäftsoptimierung zu nutzen, werden nun die Management-Reports verfeinert, Marketing-Aktionen personalisiert und Add-On-Verkäufe gepusht. Das ist im Prinzip gut, verhilft dem Business aber nur zu mäßigem Wachstum – denn hier wurden nur noch mehr Daten für denselben Geschäftsansatz verwendet. Viel tiefgreifender wäre es, erst zu überlegen, welche Geschäftsziele erreicht werden sollen und dann Datenerfassung und -auswertung entsprechend zu formen.

Lösungsansatz: erst organisatorisch und prozessual denken

Das praktische Problem in den Unternehmen besteht darin, dass es keine übergreifende Datenstrategie gibt. Über die Jahre haben sich Datensilos entwickelt, jede Fachabteilung bewertet und nutzt Datenanalysen anders, Verbindungen untereinander werden zu selten hergestellt. Viele Fachabteilungen haben eigene Datenerfassungswege etabliert, häufig findet doppelte Datenhaltung statt, die nicht selten gegen Compliance-Regeln verstößt.

Was heißt das konkret? Sollen Daten für strukturierte Datenanalysen unternehmensübergreifend nutzbar gemacht werden, brauchen Unternehmen eine Datenstrategie, die alle Datenprozesse zentralisiert. Damit ist nicht zwingend eine infrastrukturelle Zentralisierung gemeint, wohl aber eine konzeptionelle: Klarheit darüber, welche Daten erfasst und wo sie gespeichert werden. Hinzu kommt der Nutzen aus diesen Daten: Welcher wird heute bereits daraus gezogen und was wäre – unabhängig von Ist-Prozessen – künftig interessant zu wissen, um das Geschäft weiter zu entwickeln?

Neu ist dabei das Einbeziehen einer Vision, um über Bestandskundendaten und Kaufhistorien hinaus zu denken. Predictive Maintenance etwa optimiert durch vorausschauende Datenanalyse, wann sich das perfekte Wartungsfenster öffnet. Andere Internet-of-Things Use Cases zeigen, dass man mit Daten neben Laufzeitoptimierungen auch ganz neue Geschäftsmodelle entwickeln kann. So lösen beispielsweise bedarfsorientierte Mietmodelle, bemessen anhand von Verbrauchsdaten, klassische Produktkäufe ab – passend zu einer Entwicklung, in der beinahe jede Infrastruktur zum Service werden kann.

Eine zentrale Datenstrategie ist die Basis für eine gezielte Prozessautomatisierung. Während Management-Reports von Menschen gelesen und beurteilt werden, sollen sich Prozesse weitegehend automatisch anhand von Daten anpassen. Die Datenaufbereitung mittels Algorithmen – unter den Schlagworten Machine Learning und Künstliche Intelligenz subsummiert – wird künftig fehlerunanfälliger, schneller und mit einer deutlich größeren Datenbasis als Entscheidungsgrundlage bessere Entscheidungen treffen als Menschen dies könnten. Doch Algorithmen brauchen Strukturen ebenso wie Datenpools anhand derer sie lernen können.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Infrastrukturelle Umsetzung

Nach der Definition der Datenstrategie steht die technisch-infrastrukturelle Umsetzung an. Die gewählten IT-Lösungen müssen hoch performant, flexibel und skalierbar sein. Denn die schon jetzt beträchtlichen Datenmengen werden weiter wachsen und datenbasierte, später weitgehend automatisierte Entscheidungen brauchen eine schnelle Analyse, idealerweise in Echtzeit. Klassische relationale Datenbanksysteme sind diesen Ansprüchen kaum gewachsen. Ihnen lediglich mehr Speicherplatz zu verschaffen, etwa indem Cloud-Ressourcen zugeschaltet werden, bringt keinen Performance-Gewinn.

Der Markt bietet Technologien, die Abhilfe schaffen: So lassen sich bestehende Systeme durch besonders für Big Data Analytics geeignete In-Memory-Datenbanken (IMDB) ergänzen. IMDBs nutzen den Hauptspeicher (RAM) als effizienten Beschleunigungs-Cache und können deshalb deutlich schneller auf die Daten zugreifen. Um nicht auf den Hauptspeicher eines Systems begrenzt zu sein, sind IMDBs typischerweise für eine massive parallele Datenverarbeitung ausgelegt. Weil dadurch Abfragen auf alle Knoten eines Clusters verteilt werden können, sind die Systeme hoch performant – eine Grundvoraussetzung für datenbasierte Echtzeit-Entscheidungen.

Es ist sinnvoll, wenn IMDBs, Cloud-Ressourcen oder Analyse-Tools zunächst als Erweiterung zur bestehenden Infrastruktur aufgebaut werden können. Bei der Auswahl sollten Unternehmen deshalb darauf achten, dass die Lösungen integrativ sind und dass sich Data-Science-Sprachen wie R, Python oder SQL unkompliziert einbinden lassen. Die flexible Skalierbarkeit ist dabei ebenso ein wichtiges Kriterium – damit aus der Erweiterung mittelfristig eine solide Basis für datenbasiertes Business werden kann.

Mathias GolombekMathias Golombek ist Vorstandsmitglied und CTO der Exasol AG. Er verantwortet alle technischen Bereiche des Unternehmens, von der Entwicklung über den Betrieb und Support bis hin zum fachlichen Consulting. Mathias Golombek hat an der Universität Würzburg Informatik mit den Schwerpunkten Datenbanken und verteilte Systeme studiert.

www.exasol.de

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.