Anzeige

Anzeige

VERANSTALTUNGEN

LIVE2019
28.05.19 - 28.05.19
In Nürnberg

Online B2B Conference
04.06.19 - 05.06.19
In Holiday Inn Westpark, München

ACMP Competence Days Dortmund
04.06.19 - 04.06.19
In SIGNAL IDUNA PARK, 44139 Dortmund

Aachener ERP-Tage 2019
04.06.19 - 06.06.19
In Aachen

WeAreDevelopers
06.06.19 - 07.06.19
In Berlin, Messe CityCube

Anzeige

Anzeige

Big Data Elefant

Datenbasierte Analysen können enorme Optimierungs- und Einsparpotenziale in Unternehmen aufdecken – zumindest theoretisch. In der Praxis erweist sich das als schwierig umsetzbar: Vielen Unternehmen fehlen neben der performanten IT-Infrastruktur vor allem eine Datenstrategie und flexible Prozesse.

Es klingt verheißungsvoll: Mit Datenanalysen lässt sich das Business optimieren – von der Produktionssteuerung über den Kundenservice bis hin zu neuen Umsatzpotenzialen. Big Data und Data Analytics sind viel diskutierte Themen im Rahmen von Digitalisierung und Industrie 4.0. Die Daten sind da, ihre Erfassung und Speicherung kaum eine technische Herausforderung. Tatsächlich werden die Daten auch genutzt – allerdings nur punktuell, in einzelnen Abteilungen etwa oder um wöchentliche Management-Reports zu erstellen. So sind Business-Intelligence-Lösungen (BI) entstanden, die auf Datensilos basieren und ganz spezifische Analysen häufig im Self-Service bieten – nicht mehr als ein pragmatischer Anfang.

Daten sammeln ist noch keine Strategie

Denn BI und Data Analytics werden zumeist von der falschen Seite angegangen. Die nun zusätzlich erfassten Daten werden dem vorhandenen Geschäftsmodell übergestülpt: Das Management sucht Parameter, welche sich aus den gesammelten Daten herauslesen lassen. Ein Beispiel: Ein mittelständischer Maschinenbauer erfasst Kundendaten samt Kaufhistorie in seinem CRM-System. Mit dem Ziel, die Daten für die Geschäftsoptimierung zu nutzen, werden nun die Management-Reports verfeinert, Marketing-Aktionen personalisiert und Add-On-Verkäufe gepusht. Das ist im Prinzip gut, verhilft dem Business aber nur zu mäßigem Wachstum – denn hier wurden nur noch mehr Daten für denselben Geschäftsansatz verwendet. Viel tiefgreifender wäre es, erst zu überlegen, welche Geschäftsziele erreicht werden sollen und dann Datenerfassung und -auswertung entsprechend zu formen.

Lösungsansatz: erst organisatorisch und prozessual denken

Das praktische Problem in den Unternehmen besteht darin, dass es keine übergreifende Datenstrategie gibt. Über die Jahre haben sich Datensilos entwickelt, jede Fachabteilung bewertet und nutzt Datenanalysen anders, Verbindungen untereinander werden zu selten hergestellt. Viele Fachabteilungen haben eigene Datenerfassungswege etabliert, häufig findet doppelte Datenhaltung statt, die nicht selten gegen Compliance-Regeln verstößt.

Was heißt das konkret? Sollen Daten für strukturierte Datenanalysen unternehmensübergreifend nutzbar gemacht werden, brauchen Unternehmen eine Datenstrategie, die alle Datenprozesse zentralisiert. Damit ist nicht zwingend eine infrastrukturelle Zentralisierung gemeint, wohl aber eine konzeptionelle: Klarheit darüber, welche Daten erfasst und wo sie gespeichert werden. Hinzu kommt der Nutzen aus diesen Daten: Welcher wird heute bereits daraus gezogen und was wäre – unabhängig von Ist-Prozessen – künftig interessant zu wissen, um das Geschäft weiter zu entwickeln?

Neu ist dabei das Einbeziehen einer Vision, um über Bestandskundendaten und Kaufhistorien hinaus zu denken. Predictive Maintenance etwa optimiert durch vorausschauende Datenanalyse, wann sich das perfekte Wartungsfenster öffnet. Andere Internet-of-Things Use Cases zeigen, dass man mit Daten neben Laufzeitoptimierungen auch ganz neue Geschäftsmodelle entwickeln kann. So lösen beispielsweise bedarfsorientierte Mietmodelle, bemessen anhand von Verbrauchsdaten, klassische Produktkäufe ab – passend zu einer Entwicklung, in der beinahe jede Infrastruktur zum Service werden kann.

Eine zentrale Datenstrategie ist die Basis für eine gezielte Prozessautomatisierung. Während Management-Reports von Menschen gelesen und beurteilt werden, sollen sich Prozesse weitegehend automatisch anhand von Daten anpassen. Die Datenaufbereitung mittels Algorithmen – unter den Schlagworten Machine Learning und Künstliche Intelligenz subsummiert – wird künftig fehlerunanfälliger, schneller und mit einer deutlich größeren Datenbasis als Entscheidungsgrundlage bessere Entscheidungen treffen als Menschen dies könnten. Doch Algorithmen brauchen Strukturen ebenso wie Datenpools anhand derer sie lernen können.

Infrastrukturelle Umsetzung

Nach der Definition der Datenstrategie steht die technisch-infrastrukturelle Umsetzung an. Die gewählten IT-Lösungen müssen hoch performant, flexibel und skalierbar sein. Denn die schon jetzt beträchtlichen Datenmengen werden weiter wachsen und datenbasierte, später weitgehend automatisierte Entscheidungen brauchen eine schnelle Analyse, idealerweise in Echtzeit. Klassische relationale Datenbanksysteme sind diesen Ansprüchen kaum gewachsen. Ihnen lediglich mehr Speicherplatz zu verschaffen, etwa indem Cloud-Ressourcen zugeschaltet werden, bringt keinen Performance-Gewinn.

Der Markt bietet Technologien, die Abhilfe schaffen: So lassen sich bestehende Systeme durch besonders für Big Data Analytics geeignete In-Memory-Datenbanken (IMDB) ergänzen. IMDBs nutzen den Hauptspeicher (RAM) als effizienten Beschleunigungs-Cache und können deshalb deutlich schneller auf die Daten zugreifen. Um nicht auf den Hauptspeicher eines Systems begrenzt zu sein, sind IMDBs typischerweise für eine massive parallele Datenverarbeitung ausgelegt. Weil dadurch Abfragen auf alle Knoten eines Clusters verteilt werden können, sind die Systeme hoch performant – eine Grundvoraussetzung für datenbasierte Echtzeit-Entscheidungen.

Es ist sinnvoll, wenn IMDBs, Cloud-Ressourcen oder Analyse-Tools zunächst als Erweiterung zur bestehenden Infrastruktur aufgebaut werden können. Bei der Auswahl sollten Unternehmen deshalb darauf achten, dass die Lösungen integrativ sind und dass sich Data-Science-Sprachen wie R, Python oder SQL unkompliziert einbinden lassen. Die flexible Skalierbarkeit ist dabei ebenso ein wichtiges Kriterium – damit aus der Erweiterung mittelfristig eine solide Basis für datenbasiertes Business werden kann.

Mathias GolombekMathias Golombek ist Vorstandsmitglied und CTO der Exasol AG. Er verantwortet alle technischen Bereiche des Unternehmens, von der Entwicklung über den Betrieb und Support bis hin zum fachlichen Consulting. Mathias Golombek hat an der Universität Würzburg Informatik mit den Schwerpunkten Datenbanken und verteilte Systeme studiert.

www.exasol.de

 

GRID LIST
Tb W190 H80 Crop Int Bafff3f0464c40558319bba61f24f6db

Gut oder schlecht? – Datenqualität richtig einschätzen

Das Qualitätsmanagement für Stamm- und Bewegungsdaten ist in die Liga der Top-Themen für…
Schrauben und Spulen

Das Tor zu den Werkstätten der Welt - TecDoc Catalogue

Werkstätten rund um den Globus arbeiten mit dem TecDoc-Catalogue, der als einer der…
Brexit

Brexit: Rechtssicherheit beim Datenmanagement schaffen

Unternehmen müssen sich wegen des drohenden Brexits intensiv mit ihrer eigenen…
Tb W190 H80 Crop Int Bc9b8e9447d4d11374fda6a24bcb134e

Datenmanagement braucht Manpower mit Know-how

Wer in Zeiten der Digitalisierung als Unternehmen weiterhin wirtschaftlich arbeiten will,…
Trends 2019

Diese Trends bestimmen 2019 das Datenmanagement

Da Datenmanagement und Analytik enger integriert werden, können Unternehmen Daten in…
Tb W190 H80 Crop Int Da3476a7fe4365d6a999430da0217d3f

Big Data ohne Kontext nützt gar nichts

Das wahre Gold des digitalen Zeitalters sind Daten. So wächst auch im Industriekontext…