Anzeige

Gehirn DigitalVerlässliche Stammdaten sind Voraussetzung für wirkungsvolle Business Intelligence. Alles spricht von der Digitalisierung. Dabei ist das Schlagwort keineswegs neu. Den „Anbruch der Digitalzeit“, das Heraufziehen der Informationsgesellschaft, in der alles digital und miteinander vernetzt ist, hatte Nicolas Negroponte schon 1995 in seinem Bestseller „Being Digital“ (deutsch „Total Digital“, 1997) zutreffend vorausgesagt.

Die Digitalisierung schafft eine informationsbasierte, hochproduktive und hochvernetzte Welt – und das in enormer Geschwindigkeit. In ihrer „Digitalen Strategie 2025“ schreibt die Bundesregierung: „Zentraler Rohstoff dieses digitalen Wandels sind Daten. Der Umgang mit ihnen ist entscheidender Erfolgsfaktor modernen Wirtschaftens. (…) Die Schlüsselkompetenzen erfolgreicher Unternehmen werden auf lange Sicht in der Erfassung, Verarbeitung, Verknüpfung und dem Schutz von Daten liegen – und in der Ableitung konkreter Maßnahmen und Methoden.“

Neue Aufgaben für das „datengesteuerte“ Unternehmen

Das klingt vordergründig einfach und ist doch eine enorme Herausforderung. Immer größere, komplexere und sich schnell ändernde Datenmengen (Big Data) müssen verarbeitet und analysiert werden. Die besondere Aufgabe in einer Ära, in der „digital“ einfach nur die Normalität darstellt (Peter Hinssen: The New Normal, 2011), sei dabei das Meistern der Volatilität und Geschwindigkeit der Märkte. Unvorhersehbarkeit und zunehmende Veränderungsgeschwindigkeit seien zur zentralen Herausforderung des Managements geworden, so Wolfgang Martin in seiner 2015 publizierten Untersuchung „Business Intelligence im digitalen Unternehmen“. Das stelle das Management vor neue Aufgaben: „Traditionelle Steuerung im Unternehmen funktioniert nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität und Dynamik der digitalen Welt.“ Jenseits von Erfahrungswissen muss heute und in Zukunft auf der Basis rechtzeitiger Informationen schnell entschieden werden. „Jetzt kommt es darauf an, im richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung die richtige Relevanz hat“, so Martin.

Evolution und Neuentdeckung

Der Umstand, dass Unternehmen heute „daten-gesteuert“ sind – es gibt keinen Prozess ohne Daten –, ist wichtigster Treiber „für eine Evolution und gleichsam Neuentdeckung von Business Intelligence“, verdeutlicht Martin. Unter Business Intelligence (BI) seien alle Strategien, Prozesse und Technologien zu verstehen, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens- und Prozesssteuerung auslösen. Seinen Anspruch, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen, kann BI unter anderem nur einlösen, wenn ein wirkungsvolles Datenqualitäts- und Stammdatenmanagement existiert. Als Stammdaten (Master Data) bezeichnet man statische Grunddaten oder Referenzdaten zu betriebsrelevanten Objekten wie beispielsweise Produkten, Lieferanten, Kunden, Mitarbeitern und Finanzen. Es ist nichts Neues, dass es mit der Qualität dieser Daten nicht zum Besten steht. Laut dem „BI Survey 13“, der weltweiten größten Anwenderbefragung des Würzburger Forschungs- und Beratungsinstituts für Unternehmenssoftware BARC, zählt schlechte Datenqualität seit Jahren zu den Top-3-Problemen der Business Intelligence. Fachbereiche beklagen, es gebe keinen zentralen Ort, der die „wahren“ Daten bereithält („Golden Record”). Die Nöte der Fachbereiche lassen sich laut BARC im Wesentlichen auf schlechte Stammdatenqualität zurückführen.

Monika Pürsing„Seinen Anspruch, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu tre en, kann BI nur einlösen, wenn ein wirkungsvolles Datenqualitäts- und Stammdatenmanagement existiert.“

Monika Pürsing, Chief Executive O cer, zetVisions AG

Erfolgsfaktoren für verlässliche Stammdaten

Um zu verlässlichen Stammdaten zu kommen, müssen, so BARC in der im Januar 2016 veröffentlichten Untersuchung „Datenqualitäts- und Stammdatenmanagement in Big-Data-Szenarien“, drei Säulen in den Blick genommen werden, deren Inhalte in einer Datenstrategie definiert werden: Organisation, Prozesse und Technologie:

  • In organisatorischer Hinsicht geht es um eine Aufbauorganisation, die die Nutzung von Daten als Wertschöpfungsfaktor unterstützt. Wesentliche Aufgabe dabei ist die Festlegung von Rollen, also die Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement seien Data Owner („Daten- Eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT).
     
  • Gemäß ihrer Rollenbeschreibung sind die beteiligten Mitarbeiter in unterschiedliche Prozesse eingebunden. Zu den Linienaufgaben gehören die fachliche oder technische Betreuung und Unterstützung (z.B. Bestimmung von Datenquellen; Auswahl, Profilierung und Bewertung von Daten), die Umsetzung (z.B. Pflege von Daten und Regeln), die Entscheidung (z.B. über genutzte Geschäftsbegriffe; Priorisierung von Projekten), der Betrieb der Infrastruktur und der Systeme sowie schließlich das Monitoring (z.B. der Datenqualität). Typische Projektaufgaben sind BI-Projekte (z.B. Ausbildung neuer Data Marts einschließlich Pflege des Business- Glossars), DQ-Projekte (z.B. Bereinigung von Kundendaten) und Data- Science-Projekte (z.B. Unterstützung von Statistikern bei der Wahl und Interpretation von Daten).
     
  • In technischer Hinsicht verhindert ein IT-gestütztes Stammdatenmanagement, dass Stammdaten mehrfach und unsauber gepflegt werden und am Ende verfälschte, unvollständige und inkonsistente Daten die tägliche Arbeit verzögern und unnötigen Aufwand erzeugen. Es sorgt zudem für einen einheitlichen Datenpool („Golden Record“) über alle Stammdatendomänen hinweg (Multi-Domain-Lösung), aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können. Um Datenqualität systematisch zu verbessern und zu sichern, sollte in die von den jeweiligen Anwenderrollen verwendeten Benutzeroberflächen eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender DQ-Prozesse integriert sein. Da sich der Datenbestand ständig verändert und neue Datenarten hinzukommen, gewährleistet ein Regelmanagement-System die Definition von Datenvalidierungs- und Geschäftsregeln. Schließlich: Monitoring- Komponenten informieren über aktuelle Geschäftsergebnisse, und Reporting- Module unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft.

Vorgehensweise

Um die unternehmensweiten Stammdaten auf das erforderliche Qualitätsniveau zu bringen, ist eine Stammdatenmanagement- Initiative erforderlich. Sie beginnt mit einer Orientierungs- und Sensibilisierungsphase, in der der aktuelle Handlungsbedarf und die wirtschaftliche Relevanz der einzelnen Stammdatendomänen geklärt werden. Anschließend gilt es, eine Stammdaten-Strategie zu entwickeln, in der die Ziele definiert sowie organisatorische, prozessuale und technische Aspekte festgehalten werden. Im dritten Schritt werden (taktische) Stammdatenprojekte aus der strategischen Zieldefinition abgeleitet. Typische Projekte sind Datenqualitätsprojekte, Compliance-Projekte, Organisations- Optimierungen oder Datenintegrationsprojekte.

Monika Pürsing, Chief Executive O cer, zetVisions AG 

www.zetvisions.de

Den Artikel finden Sie auch in it management Mai 2016 auf S. 28 und 29.

Das könnte Sie ebenfalls interessieren:
Workbook: Machbarkeitsnachweis für Big-Data-Projekte
 


Weitere Artikel

2022

Daten-Trends 2022: Machine Learning, Data Lakes und Open Source

Instaclustr, Managed-Platform-Anbieter für Open-Source-Technologien, sieht drei Trends, die die Datennutzung im Jahr 2022 prägen werden. Dazu zählen der ML-Einsatz im Datenbankbereich, Data Lakes und Data Mesh sowie neue Angebote der Open-Source-Community.​
Datenmanagement

Was hat Datenmanagement mit Klimaschutz zu tun?

Wie sieht es aktuell in Unternehmen im Hinblick auf Datenmanagement und Nachhaltigkeit aus und welche Möglichkeiten stehen Unternehmen zur Verfügung um den Klimaschutz zu unterstützen? Ein Interview mit Roman Eckschlager, MD Sales & Marketing bei Aparavi…
Daten

Den Fakten ins Auge blicken

Zurückblicken und Analysieren ist gut. Es ist ein wichtiger Baustein, Modelle für die Zukunft zu entwickeln. Im Anschluss sollten die Entscheider jedoch in der Lage sein, zu handeln.
Datenanalyse

Ineffiziente Datenanalyse kostet Unternehmen Zeit und Geld

Fivetran, Anbieter von automatisierter Datenintegration, hat gemeinsam mit Wakefield Research eine weltweite Umfrage zum aktuellen Stand im Datenmanagement durchgeführt. Den Ergebnissen zufolge investieren Unternehmen im Durchschnitt 44 % ihrer Zeit mit dem…
Achselzucken

Datenethik? Mir egal!

48 Prozent der Arbeitnehmenden in Deutschland, die tagtäglich mit Daten arbeiten, glauben nicht, dass Wissen rund um das Thema Datenethik für ihre Rolle relevant ist. Ihre Daten-Skills wollen 82 Prozent verbessern – dabei priorisieren sie jedoch eher…

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.