Anzeige

Datenqualitätsmanagement

Seitdem erstmals Daten gesammelt, gespeichert und verarbeitet wurden, ist die Datenqualität ein ständiges Problem in der Geschäftswelt. Das Thema ist also nicht neu. Neu sind in den letzten Jahren zwei Dinge: Zum einen rücken Daten mit Blick auf die Erfordernisse der digitalen Transformation mehr und mehr ins Zentrum des unternehmerischen Interesses.

Laut dem DataIQ Research Report (zus. mit Experian) gibt ein Drittel (33 Prozent) der Unternehmen an, dass die Datenqualität für den Erfolg ihrer digitalen Transformation von grundlegender Bedeutung ist, 54 Prozent sehen sie als eine der Kernkomponenten an. Zum anderen wächst die zu bewältigende Datenmenge sehr schnell in schwindelerregende Dimensionen. In seiner jüngsten Prognose zur Entwicklung der „Global Datasphere“ geht die International Data Corporation (IDC) davon aus, dass die globale Datenmenge von 33 Zettabytes (ZB) im Jahr 2018 auf 175 ZB bis 2025 anwachsen wird. Ein Anstieg um 430 Prozent in sieben Jahren. Ein ZB entspricht zehn hoch 21 = 1.000.000.000.000.000.000.000 Byte. Eine Zahl, die man sich nicht mehr wirklich vorstellen kann.

Datennutzung unzureichend

Wenn Unternehmen die digitale Transformation nutzen wollen, um Organisation und Prozesse effizienter gestalten und die Kundenerfahrung verbessern zu können, und dafür Daten so wichtig sind, wie gut nutzen Unternehmen dann ihre Daten? Danach gefragt, dies auf einer Skala von eins bis zehn zu bewerten, sagt Ray Wang, Principal Analyst, Gründer und Vorsitzender der im Silicon Valley ansässigen Constellation Research: „Schrecklich. Ich würde sagen, es liegt bei drei: Die meisten Organisationen nutzen die Daten, die sie in ihren Organisationen haben, kaum. Das liegt daran, dass sie alle in verschiedenen Abteilungen gespeichert sind.“ In einem Whitepaper zum Thema „Digital Transformation and the new data quality imperative“ aus dem Jahr 2018 schreibt Hortonworks, ein Anbieter von globalen Datenmanagement-Plattformen, -Diensten und -Lösungen, die Datensilos hätten dramatisch zugenommen, da Unternehmen, die nicht in der Lage sind, Einzelinstanz-Datenlösungen zu implementieren, die globale Anforderungen berücksichtigen, schnell zusätzliche (und oft redundante) Systeme implementieren, um enge regionale Anforderungen zu erfüllen. Zudem hätten solche dezentralisierten Datenverwaltungspraktiken auch zu siloartigen Ansätzen der Datenverwaltung (Data Governance) geführt.

Daten entsprechen grundlegenden Standards nicht

Es ist nicht weiter verwunderlich, wenn es vor diesem Hintergrund um die Datenqualität nicht allzu gut bestellt ist. Während – wie wir oben gesehen haben – 87 Prozent der Unternehmen verstehen, dass Datenqualität eine grundlegende oder bedeutende Komponente für den Erfolg ihrer digitalen Transformation ist, stimmen gleichzeitig 68 Prozent der Aussage sehr zu oder zu, schlechte Datenqualität wirke sich negativ auf die digitale Transformation aus. In einem Beitrag für Harvard Business Review stellen Thomas H. Davenport und Thomas C. Redman im März 2020 fest, es sei bedauerliche Realität, dass in vielen Unternehmen heutzutage die meisten Daten nicht den grundlegenden Standards entsprechen. Die Transformation erfordere eine viel bessere Datenqualität und Analyse. Daten stellten ein interessantes Paradoxon dar: Die meisten Unternehmen wüssten, dass Daten wichtig sind und sie wüssten, dass die Qualität schlecht ist, dennoch verschwendeten sie enorme Ressourcen, indem sie es versäumten, die richtigen Rollen und Verantwortlichkeiten festzulegen.

Datentransformation vor digitaler Transformation

Das Unternehmen Data Ladder aus Conneticut, ein Anbieter von Lösungen für Datenqualität und -bereinigung, hat mit Fortune-500-Kunden zusammengearbeitet, die der digitalen Transformation Priorität eingeräumt haben, nur um herauszufinden, dass ihre Daten dafür noch nicht bereit waren. Die häufigsten Probleme:

  • Daten werden in unterschiedlichen Quellen gespeichert (s. oben).
  • Ein von Menschen abhängiger und daher besonders fehlerhafter Datenerfassungsprozess.
  • Datendubletten, weil die gleichen Verbraucherdaten immer wieder auf verschiedene Arten erfasst und in mehreren Datenquellen gespeichert werden.
  • Daten, die keine „Single Source of Truth“ ergeben.
  • Daten, die nicht für Business Intelligence aufbereitet, d.h. bereinigt oder optimiert werden.

Um diese Probleme zu lösen, müssen Unternehmen datengesteuert agieren, meint Farah Kim, Produktmarketing-Manager bei Data Ladder. Dazu gehöre das Verständnis, dass die Datentransformation – der Prozess der Umwandlung von Rohdaten in ein brauchbares Format – der digitalen Transformation vorangehe. Die Datentransformation sei das Mittel, um das Ziel der digitalen Transformation zu erreichen. Nach der Erfahrung von Data Ladder konnten Unternehmen, die ihre Daten aktiv transformierten und eine Data Governance einführten, ihren ROI steigern, ihre Betriebsprozesse optimieren, ihre Mitarbeiter wirkungsvoll einsetzen und schließlich in ein digitales Unternehmen übergehen. Das Resümee von Kim: „Um datengesteuert zu sein, benötigen sie Daten, denen sie vertrauen können. Um Daten zu erhalten, denen sie vertrauen können, müssen sie ein Datenqualitäts-Framework implementieren.“

Präventives Datenqualitätsmanagement notwendig

Um ihre Datenqualitätsprobleme zu beheben, müssen Unternehmen also dazu übergehen, Datenqualität aktiv und vorsorgend zu managen. Das Kompetenzzentrum Corporate Data Quality an der Hochschule St. Gallen (CC CDQ) und die EFQM haben dazu ein Rahmenwerk für Corporate Data Quality Management (CDQM) entwickelt. Es beschreibt Aktivitäten, die für ein effektives und effizientes Management unternehmensweiter Daten erforderlich sind. Unternehmen, die ein präventives Datenqualitätsmanagement betreiben wollen, müssen dazu Aufgaben auf drei Gebieten lösen: Strategie, Organisation und Systeme.

 

Auf strategischem Gebiet muss die Datenqualitätsmanagement-Strategie an der Unternehmensstrategie ausgerichtet werden. Dabei geht es darum, Optionen zum Datenmanagement zu bewerten, um darüber entscheiden zu können, wie Unternehmensdaten gemanagt und genutzt werden sollen. Dazu müssen unter anderem eine Vision, die Ziele und der erwartete Nutzen des Datenmanagement sowie eine strategische Roadmap festgelegt werden.

Die organisatorische Ebene umfasst nach Otto/Oesterle (2016) drei Gestaltungsbereiche: das Führungssystem für Datenqualitätsmanagement (auch: Datenqualitäts-Controlling), die DQM-Organisation sowie Prozesse und Methoden für DQM. Das Datenqualitäts-Controlling plant, implementiert und überwacht/steuert alle Aktivitäten zur Messung, Bewertung, Verbesserung und Sicherung der Datenqualität und der Performance des Datenqualitätsmanagements als organisationale Fähigkeit. Da Stammdatenmanagement ein Querschnittthema ist, müssen die Aufgaben des Datenmanagements über die einzelnen Divisionen, Geschäftsbereiche und Fachabteilung des Unternehmens hinweg koordiniert werden. Dazu werden in der DQM-Organisation Rollen und die dazugehörigen Verantwortlichkeiten definiert. Der Gestaltungsbereich „Prozesse und Methoden“ schließlich bezieht sich auf den Data-Governance-Prozess, den Lebenszyklusprozess für Stammdaten und auf die Standards und Richtlinien, die im Datenqualitätsmanagement einzuhalten sind.

Die Systemebene umfasst die Gestaltungsbereiche Datenarchitektur und Anwendungen. „Die Datenverteilungs- und Datenhaltungsarchitektur beschreibt, welche Daten in welchen Systemen gespeichert werden und zeigt die Datenflüsse zwischen den Systemen“, so Otto/Oesterle. Der Gestaltungsbereich „Anwendungen“ beziehe sich auf die Analyse, den Entwurf, die Implementierung und Verbesserung derjenigen Anwendungssysteme, die zur Unterstützung des Datenquali-tätsmanagements benötigt werden. Dazu zählen auch Stammdatenmanagement-Systeme, die die „eine Wahrheit“ für unterschiedliche Stammdatendomänen über den gesamten Geschäftsprozess hinweg sicherstellen.

Resümee

Unternehmen wollen aus Daten Information und aus Information erfolgskritisches Wissen gewinnen, um Entscheidungen auf Basis valider Fakten treffen zu können, die Aktionen zur Unternehmens- und Prozesssteuerung auslösen. Wer so zum einen Entscheidungen auf Fakten stellen und zum anderen bessere Entscheidungen treffen will, kommt an einem professionellen Datenqualitätsmanagement keinesfalls vorbei. Ansonsten ist mit Blick auf Stammdaten eines gewiss: Das Rückgrat des Unternehmens und der Geschäftsprozesse ist äußerst labil und die nachhaltig wirksame Nutzung des „Investitionsguts Daten“ in Frage gestellt. Das wiederum hieße, sehenden Auges das Risiko einzugehen, im Zuge der digitalen Transformation nicht nur keine besseren Entscheidungen zu treffen, sondern falsche.

Monika Pürsing, Geschäftsführerin
Monika Pürsing
Geschäftsführerin, zetVisions GmbH
Monika Pürsing ist Geschäftsführerin der auf die Softwareentwicklung für Stammdaten- und Beteiligungsmanagement spezialisierten zetVisions GmbH in Heidelberg. Sie hat zahlreiche internationale Projekte zu Stammdatenmanagement-Lösungen geleitet und Kunden bei der Prozessgestaltung beraten.

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Artikel zu diesem Thema

Low-Code
Jan 10, 2021

Low-Code oder Pro-Code?

Die digitale Transformation und der wachsende Bedarf an Anwendungen erfordert, dass…
Trends 2021
Jan 03, 2021

Von Data Storytelling bis Datendemokratisierung

Das Jahr 2020 hat viel sicher Geglaubtes über Bord geworfen, Trends angestoßen und…
Big Data
Dez 07, 2020

Vom Datenchaos zu Datenintelligenz

Der Beruf des Data Scientists wurde einst als der „attraktivste Job des 21. Jahrhunderts“…

Weitere Artikel

Data Analytics

Tech verändert die Finanzindustrie: "Daten-Banken" der Zukunft

Nur wenige Branchen müssen sich derzeit so intensiv neu erfinden wie Banken und Finanzdienstleister. Einerseits ist starke Kundennähe durch ein Filialnetz notwendig, andererseits auch rasche technologische Innovationen. Auswirkungen der Corona-Pandemie auf…
2021

Datenstrategie: Drei Trends für 2021

2020 stellte viele Unternehmen unverhofft vor neue Herausforderungen: Wie passe ich meine IT-Infrastruktur dem Wandel hin zu Remote-Working an? Wie versorge ich Mitarbeiter mit allen notwendigen Informationen? Wie optimiere ich den Datenfluss, um in…
Datenanalyse

Datenanalyse – Die Einstellung macht den Unterschied

Vom Einkauf über die interne Logistik bis hin zum Marketing oder in der Produktion – alle Geschäftsbereiche stehen vor der großen Herausforderung, immer größere komplexe Datenmengen zu sammeln und diese auf sinnvolle Weise zu verwerten. Datenanalyse wird in…
Multi-Cloud

BI für mehr Effizienz - auch in komplexen Multi-Cloud-Umgebungen

Cloud Dienste existieren mittlerweile wie Sand am Meer: Unternehmen sehen sich bei der Auswahl passender Lösungen ihres Technologie-Stacks einer sehr breiten Angebotspalette verschiedener Anbieter gegenüber. Doch nicht jeder Cloud-Service hält die gleichen…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!