VERANSTALTUNGEN

PM Forum 2018
23.10.18 - 24.10.18
In Nürnberg

MCC Fachkonferenz CyberSecurity für die Energiewirtschaft
24.10.18 - 25.10.18
In Köln

Panda Security: IT Security Breakfast
26.10.18 - 26.10.18
In Spanischen Botschaft in Berlin

Transformation World 2018
07.11.18 - 08.11.18
In Print Media Academy, Heidelberg

DIGITAL FUTUREcongress
08.11.18 - 08.11.18
In Congress Center Essen


Elefant auf einem BallBig Data Analytics umfasst Aufgabengebiete wie Datenintegration, Datenmanagement, Business Intelligence und Predictive Analytics. Ziel dabei ist es, interne und externe Daten zu analysieren, die als Entscheidungsgrundlage in Geschäftsprozessen herangezogen werden. Eine hohe Datenqualität ist Voraussetzung für zielführende Entscheidungen.

Alles, was mit Analytics zu tun hat, gewinnt weiter an Bedeutung und wird zu einem Wettbewerbsfaktor. Das belegen die Erfahrungen der Berater des IT-Dienstleisters CGI im Projektalltag. Unternehmen haben sich im Bereich Analytics auf der Stufenleiter immer weiter vorgearbeitet. Während sich einige noch auf beschreibende (was ist geschehen?) und interpretierende (warum ist etwas geschehen?) Analysen beschränken, sind andere schon weiter. Sie befassen sich mit prognostischen Analysen und wollen wissen, was passieren wird.

Auf einen BlickAuch wenn es eine beträchtliche Zahl von Berichten über Predictive-Analytics-Projekte aus einer Vielzahl von Branchen gibt, befinden sich noch viele in einem frühen Stadium. In einigen Fällen hat man mit zu starren Prognosemodellen für isolierte Umgebungen begonnen. Als sich im Laufe der Zeit die Anforderungen änderten, konnten die Modelle nicht mehr Schritt halten; einige Projekte wurden eingefroren und andere ganz beendet. Hier sind Berater gefragt, um neue Lösungswege aufzuzeigen.

Predictive-Analytics-Projekte sind nur dann erfolgreich, wenn all ihre Methoden, Verfahren, technologischen und organisatorischen Grundlagen permanent weiterentwickelt werden. Die Lernfähigkeit der eingesetzten Prognosemodelle ist dabei einer der zentralen Punkte. Wird die Datenbasis für das Modell verbreitert – das heißt, zusätzliche Datenquellen werden mit einbezogen – sollte das Modell in der Lage sein, die Prognosegenauigkeit zu erhöhen.

Wenn es um die Analyse und Vorhersagen des Kundenverhaltens geht, sollten den Erfahrungen von CGI zufolge Prognosemodelle auch Optionen bieten, um die Ergebnisse von Text- und Social-Media-Analytics zu integrieren. Hochkomplexe Prognosemodelle nützen jedoch nichts, wenn die Datenqualität nicht stimmt und es keine Experten gibt, die die Daten fachmännisch auswerten, interpretieren, die Ergebnisse in der Praxis testen und mit den gewonnenen Erkenntnissen den Prozess wieder von vorne starten.

Handlungsrelevante Erkenntnisse
 

Um zuverlässige und handlungsrelevante Erkenntnisse zu gewinnen, ist der Zugriff auf eine breite Datenbasis erforderlich. Wichtig sind Daten aus drei großen Segmenten:

  • Strukturierte Daten beispielswiese zu Kunden, Aufträgen oder Produkten, die vorwiegend aus transaktionalen Systemen stammen.
  • Unstrukturierte Daten wie aus Web-Klick-Streams, Social-MediaPlattformen oder Sensoren. 
  • Externe Daten in Form von GeoInformationen, Wetterwerten oder Informationen von Marktforschungsunternehmen.

Eine zentrale Rolle in diesem Zusammenhang spielt die Data Governance. In der Praxis geht es in erster Linie nicht darum, ob die Daten hundertprozentig valide und vollständig sind. Die Empfehlung von CGI: Analysten und Entscheider müssen sich ein Urteil über die Güte und Beschaffenheit der Daten bilden. Beim traditionellen Reporting und bei Analyseszenarien, die regulatorische Anforderungen betreffen, müssen Daten absolut korrekt sein. Dagegen sind bei Trendanalysen oder der Nutzung von Durchschnittswerten Unschärfen durchaus akzeptabel.

Eine hohe Datenqualität, wie sie für operative Big-Data-Analytics-Aktivitäten benötigt wird, lässt sich nur durch ein systematisches, unternehmensweites Vorgehen erzielen. Notwendig ist dazu eine kontinuierliche Zusammenarbeit zwischen den Fachbereichen und der IT, denn letztere muss das technologische Fundament für die Arbeit der Analysen bereitstellen. Eine der Varianten besteht darin, in einem Competence Center Mitarbeiter aus der IT und den Fachbereichen zusammenzubringen, die für eine beständig hohe Datenqualität zuständig sind. Andere Unternehmen haben gute Erfahrungen mit Data Stewards gesammelt. Ähnlich wie ein Process Owner, der für die Steuerung und Überwachung eines Geschäftsprozesses zuständig ist, verantwortet der Data Steward die Datenqualität für einen bestimmten Bereich. Die Rolle eines IT-Dienstleisters wie CGI besteht darin, die Kombination der fachlichen Expertise bei Kunden mit dem eigenen technischen und methodischen Know-how in konkrete Projekte einzubringen.

Knut Veltjens

www.de.cgi.com

 
GRID LIST
Analytics Dashboard

BI-Tools: Hauptmerkmale im Vergleich

Ideen veranschaulichen und Daten visualisieren – die Vielzahl an Tools im Bereich…
Search

Worauf kommt es bei einer Enterprise-Search-Lösung an?

Mit der richtigen Lösung für die unternehmensweite Suche können Mitarbeiter schnell an…
Otto Neuer

Mit Datenanalysen die Fußball-WM gewinnen

Ob Orakel aus der Tierwelt oder Big Data-Analysen: Vor großen Fußballturnieren gibt es…
Schatzkiste

Heben Sie Ihren Datenschatz mithilfe von Self-Service-BI

Unternehmen stehen heute einer riesigen Datenmenge gegenüber, die eine Unmenge an…
Tb W190 H80 Crop Int Edfb0446c4d7b02ec6e9e4f9acaf3aad

Prognostische Analytik liefert Daten für bessere Entscheidungen

Traditionell konzentrieren sich Business-Intelligence (BI)-Berichte auf eine Analyse der…
Tb W190 H80 Crop Int 489dee67c6511f2f775a4da1af1b344d

Daten sind das neue Öl, aber Informationen sind das neue Gold

Branchenübergreifend wird in und von Unternehmen immer wieder die gleiche Frage gestellt:…
Smarte News aus der IT-Welt