SAP SECURITY 2017
22.11.17 - 22.11.17
In Walldorf, Leonardo Hotel

Cloud Expo Europe
28.11.17 - 29.11.17
In Frankfurt

Data Centre World
28.11.17 - 29.11.17
In Frankfurt

IT-Tage 2017
11.12.17 - 14.12.17
In Frankfurt, Messe Kap Europa

Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum


Elefant auf einem BallBig Data Analytics umfasst Aufgabengebiete wie Datenintegration, Datenmanagement, Business Intelligence und Predictive Analytics. Ziel dabei ist es, interne und externe Daten zu analysieren, die als Entscheidungsgrundlage in Geschäftsprozessen herangezogen werden. Eine hohe Datenqualität ist Voraussetzung für zielführende Entscheidungen.

Alles, was mit Analytics zu tun hat, gewinnt weiter an Bedeutung und wird zu einem Wettbewerbsfaktor. Das belegen die Erfahrungen der Berater des IT-Dienstleisters CGI im Projektalltag. Unternehmen haben sich im Bereich Analytics auf der Stufenleiter immer weiter vorgearbeitet. Während sich einige noch auf beschreibende (was ist geschehen?) und interpretierende (warum ist etwas geschehen?) Analysen beschränken, sind andere schon weiter. Sie befassen sich mit prognostischen Analysen und wollen wissen, was passieren wird.

Auf einen BlickAuch wenn es eine beträchtliche Zahl von Berichten über Predictive-Analytics-Projekte aus einer Vielzahl von Branchen gibt, befinden sich noch viele in einem frühen Stadium. In einigen Fällen hat man mit zu starren Prognosemodellen für isolierte Umgebungen begonnen. Als sich im Laufe der Zeit die Anforderungen änderten, konnten die Modelle nicht mehr Schritt halten; einige Projekte wurden eingefroren und andere ganz beendet. Hier sind Berater gefragt, um neue Lösungswege aufzuzeigen.

Predictive-Analytics-Projekte sind nur dann erfolgreich, wenn all ihre Methoden, Verfahren, technologischen und organisatorischen Grundlagen permanent weiterentwickelt werden. Die Lernfähigkeit der eingesetzten Prognosemodelle ist dabei einer der zentralen Punkte. Wird die Datenbasis für das Modell verbreitert – das heißt, zusätzliche Datenquellen werden mit einbezogen – sollte das Modell in der Lage sein, die Prognosegenauigkeit zu erhöhen.

Wenn es um die Analyse und Vorhersagen des Kundenverhaltens geht, sollten den Erfahrungen von CGI zufolge Prognosemodelle auch Optionen bieten, um die Ergebnisse von Text- und Social-Media-Analytics zu integrieren. Hochkomplexe Prognosemodelle nützen jedoch nichts, wenn die Datenqualität nicht stimmt und es keine Experten gibt, die die Daten fachmännisch auswerten, interpretieren, die Ergebnisse in der Praxis testen und mit den gewonnenen Erkenntnissen den Prozess wieder von vorne starten.

Handlungsrelevante Erkenntnisse
 

Um zuverlässige und handlungsrelevante Erkenntnisse zu gewinnen, ist der Zugriff auf eine breite Datenbasis erforderlich. Wichtig sind Daten aus drei großen Segmenten:

  • Strukturierte Daten beispielswiese zu Kunden, Aufträgen oder Produkten, die vorwiegend aus transaktionalen Systemen stammen.
  • Unstrukturierte Daten wie aus Web-Klick-Streams, Social-MediaPlattformen oder Sensoren. 
  • Externe Daten in Form von GeoInformationen, Wetterwerten oder Informationen von Marktforschungsunternehmen.

Eine zentrale Rolle in diesem Zusammenhang spielt die Data Governance. In der Praxis geht es in erster Linie nicht darum, ob die Daten hundertprozentig valide und vollständig sind. Die Empfehlung von CGI: Analysten und Entscheider müssen sich ein Urteil über die Güte und Beschaffenheit der Daten bilden. Beim traditionellen Reporting und bei Analyseszenarien, die regulatorische Anforderungen betreffen, müssen Daten absolut korrekt sein. Dagegen sind bei Trendanalysen oder der Nutzung von Durchschnittswerten Unschärfen durchaus akzeptabel.

Eine hohe Datenqualität, wie sie für operative Big-Data-Analytics-Aktivitäten benötigt wird, lässt sich nur durch ein systematisches, unternehmensweites Vorgehen erzielen. Notwendig ist dazu eine kontinuierliche Zusammenarbeit zwischen den Fachbereichen und der IT, denn letztere muss das technologische Fundament für die Arbeit der Analysen bereitstellen. Eine der Varianten besteht darin, in einem Competence Center Mitarbeiter aus der IT und den Fachbereichen zusammenzubringen, die für eine beständig hohe Datenqualität zuständig sind. Andere Unternehmen haben gute Erfahrungen mit Data Stewards gesammelt. Ähnlich wie ein Process Owner, der für die Steuerung und Überwachung eines Geschäftsprozesses zuständig ist, verantwortet der Data Steward die Datenqualität für einen bestimmten Bereich. Die Rolle eines IT-Dienstleisters wie CGI besteht darin, die Kombination der fachlichen Expertise bei Kunden mit dem eigenen technischen und methodischen Know-how in konkrete Projekte einzubringen.

Knut Veltjens

www.de.cgi.com

 
GRID LIST
Tb W190 H80 Crop Int 74532d0eacb31d5d7ec7a54979240d99

Neue In-Memory-Datenbankplattform Terracotta DB

Die Software AG gab die Verfügbarkeit der In-Memory-Datenbank (IMDB) Terracotta DB…
Analytics Summit 2017

Google Analytics Konferenz in Deutschland

Bereits zum sechsten Mal veranstaltet der zertifizierte Google Analytics Partner Trakken…
Tb W190 H80 Crop Int 8934e8c1736b537d6fa8ae0594f8bc01

Digitale Signatur trotzt Quantencomputern

Die Kryptografie und die Rechenkraft von Computern sind in einem ständigen Wettlauf:…
Stefan Müller

Hitachi Vantara ein neuer Player entsteht auf dem Markt | Kommentar

Die Data Intelligence-Szene wurde aufgemischt: Hitachi gab die Fusion seiner Sparten…
Digitalisierung Auto

Datenmanagement: Die Autobranche sucht das Geschäft der Zukunft

Uber hat einen höheren Börsenwert als General Motors; Tesla verkauft seine…
Programmcode

Programmcode von Yago ist nun für jedermann nutzbar

Im Internet hat fast jedes Wort mehr als eine Bedeutung, was die Suche oft mühsam macht.…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet