Anzeige

Big Data Elefant

Datenbasierte Analysen können enorme Optimierungs- und Einsparpotenziale in Unternehmen aufdecken – zumindest theoretisch. In der Praxis erweist sich das als schwierig umsetzbar: Vielen Unternehmen fehlen neben der performanten IT-Infrastruktur vor allem eine Datenstrategie und flexible Prozesse.

Es klingt verheißungsvoll: Mit Datenanalysen lässt sich das Business optimieren – von der Produktionssteuerung über den Kundenservice bis hin zu neuen Umsatzpotenzialen. Big Data und Data Analytics sind viel diskutierte Themen im Rahmen von Digitalisierung und Industrie 4.0. Die Daten sind da, ihre Erfassung und Speicherung kaum eine technische Herausforderung. Tatsächlich werden die Daten auch genutzt – allerdings nur punktuell, in einzelnen Abteilungen etwa oder um wöchentliche Management-Reports zu erstellen. So sind Business-Intelligence-Lösungen (BI) entstanden, die auf Datensilos basieren und ganz spezifische Analysen häufig im Self-Service bieten – nicht mehr als ein pragmatischer Anfang.

Daten sammeln ist noch keine Strategie

Denn BI und Data Analytics werden zumeist von der falschen Seite angegangen. Die nun zusätzlich erfassten Daten werden dem vorhandenen Geschäftsmodell übergestülpt: Das Management sucht Parameter, welche sich aus den gesammelten Daten herauslesen lassen. Ein Beispiel: Ein mittelständischer Maschinenbauer erfasst Kundendaten samt Kaufhistorie in seinem CRM-System. Mit dem Ziel, die Daten für die Geschäftsoptimierung zu nutzen, werden nun die Management-Reports verfeinert, Marketing-Aktionen personalisiert und Add-On-Verkäufe gepusht. Das ist im Prinzip gut, verhilft dem Business aber nur zu mäßigem Wachstum – denn hier wurden nur noch mehr Daten für denselben Geschäftsansatz verwendet. Viel tiefgreifender wäre es, erst zu überlegen, welche Geschäftsziele erreicht werden sollen und dann Datenerfassung und -auswertung entsprechend zu formen.

Lösungsansatz: erst organisatorisch und prozessual denken

Das praktische Problem in den Unternehmen besteht darin, dass es keine übergreifende Datenstrategie gibt. Über die Jahre haben sich Datensilos entwickelt, jede Fachabteilung bewertet und nutzt Datenanalysen anders, Verbindungen untereinander werden zu selten hergestellt. Viele Fachabteilungen haben eigene Datenerfassungswege etabliert, häufig findet doppelte Datenhaltung statt, die nicht selten gegen Compliance-Regeln verstößt.

Was heißt das konkret? Sollen Daten für strukturierte Datenanalysen unternehmensübergreifend nutzbar gemacht werden, brauchen Unternehmen eine Datenstrategie, die alle Datenprozesse zentralisiert. Damit ist nicht zwingend eine infrastrukturelle Zentralisierung gemeint, wohl aber eine konzeptionelle: Klarheit darüber, welche Daten erfasst und wo sie gespeichert werden. Hinzu kommt der Nutzen aus diesen Daten: Welcher wird heute bereits daraus gezogen und was wäre – unabhängig von Ist-Prozessen – künftig interessant zu wissen, um das Geschäft weiter zu entwickeln?

Neu ist dabei das Einbeziehen einer Vision, um über Bestandskundendaten und Kaufhistorien hinaus zu denken. Predictive Maintenance etwa optimiert durch vorausschauende Datenanalyse, wann sich das perfekte Wartungsfenster öffnet. Andere Internet-of-Things Use Cases zeigen, dass man mit Daten neben Laufzeitoptimierungen auch ganz neue Geschäftsmodelle entwickeln kann. So lösen beispielsweise bedarfsorientierte Mietmodelle, bemessen anhand von Verbrauchsdaten, klassische Produktkäufe ab – passend zu einer Entwicklung, in der beinahe jede Infrastruktur zum Service werden kann.

Eine zentrale Datenstrategie ist die Basis für eine gezielte Prozessautomatisierung. Während Management-Reports von Menschen gelesen und beurteilt werden, sollen sich Prozesse weitegehend automatisch anhand von Daten anpassen. Die Datenaufbereitung mittels Algorithmen – unter den Schlagworten Machine Learning und Künstliche Intelligenz subsummiert – wird künftig fehlerunanfälliger, schneller und mit einer deutlich größeren Datenbasis als Entscheidungsgrundlage bessere Entscheidungen treffen als Menschen dies könnten. Doch Algorithmen brauchen Strukturen ebenso wie Datenpools anhand derer sie lernen können.

Infrastrukturelle Umsetzung

Nach der Definition der Datenstrategie steht die technisch-infrastrukturelle Umsetzung an. Die gewählten IT-Lösungen müssen hoch performant, flexibel und skalierbar sein. Denn die schon jetzt beträchtlichen Datenmengen werden weiter wachsen und datenbasierte, später weitgehend automatisierte Entscheidungen brauchen eine schnelle Analyse, idealerweise in Echtzeit. Klassische relationale Datenbanksysteme sind diesen Ansprüchen kaum gewachsen. Ihnen lediglich mehr Speicherplatz zu verschaffen, etwa indem Cloud-Ressourcen zugeschaltet werden, bringt keinen Performance-Gewinn.

Der Markt bietet Technologien, die Abhilfe schaffen: So lassen sich bestehende Systeme durch besonders für Big Data Analytics geeignete In-Memory-Datenbanken (IMDB) ergänzen. IMDBs nutzen den Hauptspeicher (RAM) als effizienten Beschleunigungs-Cache und können deshalb deutlich schneller auf die Daten zugreifen. Um nicht auf den Hauptspeicher eines Systems begrenzt zu sein, sind IMDBs typischerweise für eine massive parallele Datenverarbeitung ausgelegt. Weil dadurch Abfragen auf alle Knoten eines Clusters verteilt werden können, sind die Systeme hoch performant – eine Grundvoraussetzung für datenbasierte Echtzeit-Entscheidungen.

Es ist sinnvoll, wenn IMDBs, Cloud-Ressourcen oder Analyse-Tools zunächst als Erweiterung zur bestehenden Infrastruktur aufgebaut werden können. Bei der Auswahl sollten Unternehmen deshalb darauf achten, dass die Lösungen integrativ sind und dass sich Data-Science-Sprachen wie R, Python oder SQL unkompliziert einbinden lassen. Die flexible Skalierbarkeit ist dabei ebenso ein wichtiges Kriterium – damit aus der Erweiterung mittelfristig eine solide Basis für datenbasiertes Business werden kann.

Mathias GolombekMathias Golombek ist Vorstandsmitglied und CTO der Exasol AG. Er verantwortet alle technischen Bereiche des Unternehmens, von der Entwicklung über den Betrieb und Support bis hin zum fachlichen Consulting. Mathias Golombek hat an der Universität Würzburg Informatik mit den Schwerpunkten Datenbanken und verteilte Systeme studiert.

www.exasol.de

 


Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Weitere Artikel

Data Analytics

Tech verändert die Finanzindustrie: "Daten-Banken" der Zukunft

Nur wenige Branchen müssen sich derzeit so intensiv neu erfinden wie Banken und Finanzdienstleister. Einerseits ist starke Kundennähe durch ein Filialnetz notwendig, andererseits auch rasche technologische Innovationen. Auswirkungen der Corona-Pandemie auf…
2021

Datenstrategie: Drei Trends für 2021

2020 stellte viele Unternehmen unverhofft vor neue Herausforderungen: Wie passe ich meine IT-Infrastruktur dem Wandel hin zu Remote-Working an? Wie versorge ich Mitarbeiter mit allen notwendigen Informationen? Wie optimiere ich den Datenfluss, um in…
Datenanalyse

Datenanalyse – Die Einstellung macht den Unterschied

Vom Einkauf über die interne Logistik bis hin zum Marketing oder in der Produktion – alle Geschäftsbereiche stehen vor der großen Herausforderung, immer größere komplexe Datenmengen zu sammeln und diese auf sinnvolle Weise zu verwerten. Datenanalyse wird in…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!