Anzeige

Anzeige

VERANSTALTUNGEN

Bitkom | Digital Health Conference
26.11.19 - 26.11.19
In dbb Forum Berlin

IT & Information Security
26.11.19 - 27.11.19
In Titanic Chaussee Hotel, Berlin

Integriertes IT Demand und Portfolio Management
02.12.19 - 04.12.19
In Sofitel Berlin Kurfürstendamm, Germany

IT-Tage 2019
09.12.19 - 12.12.19
In Frankfurt

eoSearchSummit
06.02.20 - 06.02.20
In Würzburg, Congress Centrum

Anzeige

Anzeige

Big Data Elefant

Datenbasierte Analysen können enorme Optimierungs- und Einsparpotenziale in Unternehmen aufdecken – zumindest theoretisch. In der Praxis erweist sich das als schwierig umsetzbar: Vielen Unternehmen fehlen neben der performanten IT-Infrastruktur vor allem eine Datenstrategie und flexible Prozesse.

Es klingt verheißungsvoll: Mit Datenanalysen lässt sich das Business optimieren – von der Produktionssteuerung über den Kundenservice bis hin zu neuen Umsatzpotenzialen. Big Data und Data Analytics sind viel diskutierte Themen im Rahmen von Digitalisierung und Industrie 4.0. Die Daten sind da, ihre Erfassung und Speicherung kaum eine technische Herausforderung. Tatsächlich werden die Daten auch genutzt – allerdings nur punktuell, in einzelnen Abteilungen etwa oder um wöchentliche Management-Reports zu erstellen. So sind Business-Intelligence-Lösungen (BI) entstanden, die auf Datensilos basieren und ganz spezifische Analysen häufig im Self-Service bieten – nicht mehr als ein pragmatischer Anfang.

Daten sammeln ist noch keine Strategie

Denn BI und Data Analytics werden zumeist von der falschen Seite angegangen. Die nun zusätzlich erfassten Daten werden dem vorhandenen Geschäftsmodell übergestülpt: Das Management sucht Parameter, welche sich aus den gesammelten Daten herauslesen lassen. Ein Beispiel: Ein mittelständischer Maschinenbauer erfasst Kundendaten samt Kaufhistorie in seinem CRM-System. Mit dem Ziel, die Daten für die Geschäftsoptimierung zu nutzen, werden nun die Management-Reports verfeinert, Marketing-Aktionen personalisiert und Add-On-Verkäufe gepusht. Das ist im Prinzip gut, verhilft dem Business aber nur zu mäßigem Wachstum – denn hier wurden nur noch mehr Daten für denselben Geschäftsansatz verwendet. Viel tiefgreifender wäre es, erst zu überlegen, welche Geschäftsziele erreicht werden sollen und dann Datenerfassung und -auswertung entsprechend zu formen.

Lösungsansatz: erst organisatorisch und prozessual denken

Das praktische Problem in den Unternehmen besteht darin, dass es keine übergreifende Datenstrategie gibt. Über die Jahre haben sich Datensilos entwickelt, jede Fachabteilung bewertet und nutzt Datenanalysen anders, Verbindungen untereinander werden zu selten hergestellt. Viele Fachabteilungen haben eigene Datenerfassungswege etabliert, häufig findet doppelte Datenhaltung statt, die nicht selten gegen Compliance-Regeln verstößt.

Was heißt das konkret? Sollen Daten für strukturierte Datenanalysen unternehmensübergreifend nutzbar gemacht werden, brauchen Unternehmen eine Datenstrategie, die alle Datenprozesse zentralisiert. Damit ist nicht zwingend eine infrastrukturelle Zentralisierung gemeint, wohl aber eine konzeptionelle: Klarheit darüber, welche Daten erfasst und wo sie gespeichert werden. Hinzu kommt der Nutzen aus diesen Daten: Welcher wird heute bereits daraus gezogen und was wäre – unabhängig von Ist-Prozessen – künftig interessant zu wissen, um das Geschäft weiter zu entwickeln?

Neu ist dabei das Einbeziehen einer Vision, um über Bestandskundendaten und Kaufhistorien hinaus zu denken. Predictive Maintenance etwa optimiert durch vorausschauende Datenanalyse, wann sich das perfekte Wartungsfenster öffnet. Andere Internet-of-Things Use Cases zeigen, dass man mit Daten neben Laufzeitoptimierungen auch ganz neue Geschäftsmodelle entwickeln kann. So lösen beispielsweise bedarfsorientierte Mietmodelle, bemessen anhand von Verbrauchsdaten, klassische Produktkäufe ab – passend zu einer Entwicklung, in der beinahe jede Infrastruktur zum Service werden kann.

Eine zentrale Datenstrategie ist die Basis für eine gezielte Prozessautomatisierung. Während Management-Reports von Menschen gelesen und beurteilt werden, sollen sich Prozesse weitegehend automatisch anhand von Daten anpassen. Die Datenaufbereitung mittels Algorithmen – unter den Schlagworten Machine Learning und Künstliche Intelligenz subsummiert – wird künftig fehlerunanfälliger, schneller und mit einer deutlich größeren Datenbasis als Entscheidungsgrundlage bessere Entscheidungen treffen als Menschen dies könnten. Doch Algorithmen brauchen Strukturen ebenso wie Datenpools anhand derer sie lernen können.

Infrastrukturelle Umsetzung

Nach der Definition der Datenstrategie steht die technisch-infrastrukturelle Umsetzung an. Die gewählten IT-Lösungen müssen hoch performant, flexibel und skalierbar sein. Denn die schon jetzt beträchtlichen Datenmengen werden weiter wachsen und datenbasierte, später weitgehend automatisierte Entscheidungen brauchen eine schnelle Analyse, idealerweise in Echtzeit. Klassische relationale Datenbanksysteme sind diesen Ansprüchen kaum gewachsen. Ihnen lediglich mehr Speicherplatz zu verschaffen, etwa indem Cloud-Ressourcen zugeschaltet werden, bringt keinen Performance-Gewinn.

Der Markt bietet Technologien, die Abhilfe schaffen: So lassen sich bestehende Systeme durch besonders für Big Data Analytics geeignete In-Memory-Datenbanken (IMDB) ergänzen. IMDBs nutzen den Hauptspeicher (RAM) als effizienten Beschleunigungs-Cache und können deshalb deutlich schneller auf die Daten zugreifen. Um nicht auf den Hauptspeicher eines Systems begrenzt zu sein, sind IMDBs typischerweise für eine massive parallele Datenverarbeitung ausgelegt. Weil dadurch Abfragen auf alle Knoten eines Clusters verteilt werden können, sind die Systeme hoch performant – eine Grundvoraussetzung für datenbasierte Echtzeit-Entscheidungen.

Es ist sinnvoll, wenn IMDBs, Cloud-Ressourcen oder Analyse-Tools zunächst als Erweiterung zur bestehenden Infrastruktur aufgebaut werden können. Bei der Auswahl sollten Unternehmen deshalb darauf achten, dass die Lösungen integrativ sind und dass sich Data-Science-Sprachen wie R, Python oder SQL unkompliziert einbinden lassen. Die flexible Skalierbarkeit ist dabei ebenso ein wichtiges Kriterium – damit aus der Erweiterung mittelfristig eine solide Basis für datenbasiertes Business werden kann.

Mathias GolombekMathias Golombek ist Vorstandsmitglied und CTO der Exasol AG. Er verantwortet alle technischen Bereiche des Unternehmens, von der Entwicklung über den Betrieb und Support bis hin zum fachlichen Consulting. Mathias Golombek hat an der Universität Würzburg Informatik mit den Schwerpunkten Datenbanken und verteilte Systeme studiert.

www.exasol.de

 

GRID LIST
Big Data Trends 2020

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
CDO

Die wichtige Funktion des Chief Data Officer im digitalen Wandel

Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an…
Datamanagement

Datenqualität: Die Achillesferse der Digitalisierung schützen

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die…
Datenkugel

Alle Daten im Griff mit Datenvirtualisierung

Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend…
Fragezeichen

Cloud-Server vs. NAS: Wann ist welche Methode sinnvoll?

Heutzutage hat die sichere Lagerung der eigenen Daten eine enorme Bedeutung. Da immer…
Digitale Erde

Die drei Bausteine moderner Datenanalyse

Unsere Welt besteht aus einer Vielfalt an Informationen - laut einer kürzlich erschienen…