Digitale Evolution| Verlässliche Stammdaten

Gehirn DigitalVerlässliche Stammdaten sind Voraussetzung für wirkungsvolle Business Intelligence. Alles spricht von der Digitalisierung. Dabei ist das Schlagwort keineswegs neu. Den „Anbruch der Digitalzeit“, das Heraufziehen der Informationsgesellschaft, in der alles digital und miteinander vernetzt ist, hatte Nicolas Negroponte schon 1995 in seinem Bestseller „Being Digital“ (deutsch „Total Digital“, 1997) zutreffend vorausgesagt.

Die Digitalisierung schafft eine informationsbasierte, hochproduktive und hochvernetzte Welt – und das in enormer Geschwindigkeit. In ihrer „Digitalen Strategie 2025“ schreibt die Bundesregierung: „Zentraler Rohstoff dieses digitalen Wandels sind Daten. Der Umgang mit ihnen ist entscheidender Erfolgsfaktor modernen Wirtschaftens. (…) Die Schlüsselkompetenzen erfolgreicher Unternehmen werden auf lange Sicht in der Erfassung, Verarbeitung, Verknüpfung und dem Schutz von Daten liegen – und in der Ableitung konkreter Maßnahmen und Methoden.“

Anzeige
Neue Aufgaben für das „datengesteuerte“ Unternehmen

Das klingt vordergründig einfach und ist doch eine enorme Herausforderung. Immer größere, komplexere und sich schnell ändernde Datenmengen (Big Data) müssen verarbeitet und analysiert werden. Die besondere Aufgabe in einer Ära, in der „digital“ einfach nur die Normalität darstellt (Peter Hinssen: The New Normal, 2011), sei dabei das Meistern der Volatilität und Geschwindigkeit der Märkte. Unvorhersehbarkeit und zunehmende Veränderungsgeschwindigkeit seien zur zentralen Herausforderung des Managements geworden, so Wolfgang Martin in seiner 2015 publizierten Untersuchung „Business Intelligence im digitalen Unternehmen“. Das stelle das Management vor neue Aufgaben: „Traditionelle Steuerung im Unternehmen funktioniert nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität und Dynamik der digitalen Welt.“ Jenseits von Erfahrungswissen muss heute und in Zukunft auf der Basis rechtzeitiger Informationen schnell entschieden werden. „Jetzt kommt es darauf an, im richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung die richtige Relevanz hat“, so Martin.

Evolution und Neuentdeckung

Der Umstand, dass Unternehmen heute „daten-gesteuert“ sind – es gibt keinen Prozess ohne Daten –, ist wichtigster Treiber „für eine Evolution und gleichsam Neuentdeckung von Business Intelligence“, verdeutlicht Martin. Unter Business Intelligence (BI) seien alle Strategien, Prozesse und Technologien zu verstehen, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens- und Prozesssteuerung auslösen. Seinen Anspruch, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen, kann BI unter anderem nur einlösen, wenn ein wirkungsvolles Datenqualitäts- und Stammdatenmanagement existiert. Als Stammdaten (Master Data) bezeichnet man statische Grunddaten oder Referenzdaten zu betriebsrelevanten Objekten wie beispielsweise Produkten, Lieferanten, Kunden, Mitarbeitern und Finanzen. Es ist nichts Neues, dass es mit der Qualität dieser Daten nicht zum Besten steht. Laut dem „BI Survey 13“, der weltweiten größten Anwenderbefragung des Würzburger Forschungs- und Beratungsinstituts für Unternehmenssoftware BARC, zählt schlechte Datenqualität seit Jahren zu den Top-3-Problemen der Business Intelligence. Fachbereiche beklagen, es gebe keinen zentralen Ort, der die „wahren“ Daten bereithält („Golden Record”). Die Nöte der Fachbereiche lassen sich laut BARC im Wesentlichen auf schlechte Stammdatenqualität zurückführen.

Monika Pürsing„Seinen Anspruch, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu tre en, kann BI nur einlösen, wenn ein wirkungsvolles Datenqualitäts- und Stammdatenmanagement existiert.“

Monika Pürsing, Chief Executive O cer, zetVisions AG

Erfolgsfaktoren für verlässliche Stammdaten

Um zu verlässlichen Stammdaten zu kommen, müssen, so BARC in der im Januar 2016 veröffentlichten Untersuchung „Datenqualitäts- und Stammdatenmanagement in Big-Data-Szenarien“, drei Säulen in den Blick genommen werden, deren Inhalte in einer Datenstrategie definiert werden: Organisation, Prozesse und Technologie:

  • In organisatorischer Hinsicht geht es um eine Aufbauorganisation, die die Nutzung von Daten als Wertschöpfungsfaktor unterstützt. Wesentliche Aufgabe dabei ist die Festlegung von Rollen, also die Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement seien Data Owner („Daten- Eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT).
     
  • Gemäß ihrer Rollenbeschreibung sind die beteiligten Mitarbeiter in unterschiedliche Prozesse eingebunden. Zu den Linienaufgaben gehören die fachliche oder technische Betreuung und Unterstützung (z.B. Bestimmung von Datenquellen; Auswahl, Profilierung und Bewertung von Daten), die Umsetzung (z.B. Pflege von Daten und Regeln), die Entscheidung (z.B. über genutzte Geschäftsbegriffe; Priorisierung von Projekten), der Betrieb der Infrastruktur und der Systeme sowie schließlich das Monitoring (z.B. der Datenqualität). Typische Projektaufgaben sind BI-Projekte (z.B. Ausbildung neuer Data Marts einschließlich Pflege des Business- Glossars), DQ-Projekte (z.B. Bereinigung von Kundendaten) und Data- Science-Projekte (z.B. Unterstützung von Statistikern bei der Wahl und Interpretation von Daten).
     
  • In technischer Hinsicht verhindert ein IT-gestütztes Stammdatenmanagement, dass Stammdaten mehrfach und unsauber gepflegt werden und am Ende verfälschte, unvollständige und inkonsistente Daten die tägliche Arbeit verzögern und unnötigen Aufwand erzeugen. Es sorgt zudem für einen einheitlichen Datenpool („Golden Record“) über alle Stammdatendomänen hinweg (Multi-Domain-Lösung), aus dem alle angeschlossenen Systeme bedient und „saubere“ Berichte sowie Auswertungen erstellt werden können. Um Datenqualität systematisch zu verbessern und zu sichern, sollte in die von den jeweiligen Anwenderrollen verwendeten Benutzeroberflächen eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender DQ-Prozesse integriert sein. Da sich der Datenbestand ständig verändert und neue Datenarten hinzukommen, gewährleistet ein Regelmanagement-System die Definition von Datenvalidierungs- und Geschäftsregeln. Schließlich: Monitoring- Komponenten informieren über aktuelle Geschäftsergebnisse, und Reporting- Module unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft.
Vorgehensweise

Um die unternehmensweiten Stammdaten auf das erforderliche Qualitätsniveau zu bringen, ist eine Stammdatenmanagement- Initiative erforderlich. Sie beginnt mit einer Orientierungs- und Sensibilisierungsphase, in der der aktuelle Handlungsbedarf und die wirtschaftliche Relevanz der einzelnen Stammdatendomänen geklärt werden. Anschließend gilt es, eine Stammdaten-Strategie zu entwickeln, in der die Ziele definiert sowie organisatorische, prozessuale und technische Aspekte festgehalten werden. Im dritten Schritt werden (taktische) Stammdatenprojekte aus der strategischen Zieldefinition abgeleitet. Typische Projekte sind Datenqualitätsprojekte, Compliance-Projekte, Organisations- Optimierungen oder Datenintegrationsprojekte.

Monika Pürsing, Chief Executive O cer, zetVisions AG 

www.zetvisions.de

Den Artikel finden Sie auch in it management Mai 2016 auf S. 28 und 29.

Das könnte Sie ebenfalls interessieren:
Workbook: Machbarkeitsnachweis für Big-Data-Projekte
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.