Datenqualität – Instrumente, die helfen

Das Thema Datenqualität hat etwas von „Und täglich grüßt das Murmeltier“. Ähnlich wie Phil Conners, gespielt von Bill Murray, hat man das Gefühl, in einer Zeitschleife festzusitzen und im übertragenen Sinne ein und denselben Tag immer wieder zu erleben. 

Immer wieder wird betont, wie wichtig Datenqualität ist und was Unternehmen alles dafür tun sollten, während im gleichen Atemzug die verbreitet unzureichende bis schlechte Datenqualität angeprangert wird. Nun wird man nicht behaupten können, an dem Thema werde nicht gearbeitet. Da passiert schon einiges, gleichwohl bleibt der Eindruck, so richtig ist die Bedeutung der Datenqualität noch nicht überall dort angekommen, wo sie ankommen müsste – vor allem nicht in den Chefetagen.

Anzeige

Kosten schlechter Datenqualität

Das könnte daran liegen, dass es viele Unternehmen unter-lassen, die Kosten schlechter Datenqualität transparent zu machen. Laut dem Gartner Data Quality Market Survey von 2017 messen fast 60 Prozent der Unternehmen die jährlichen finanziellen Kosten von Daten schlechter Qualität nicht. „Wenn diese Auswirkungen nicht gemessen werden, führt dies zu reaktiven Antworten auf Datenqualitätsprobleme, verpasste Geschäftswachstumschancen, erhöhte Risiken und einen niedrigeren ROI“, sagt Mei Yang Selvage, Research Director bei Gartner.

„Führende informationsorientierte Organisationen messen aktiv den Wert ihrer Informationsressourcen sowie die Kosten von Daten schlechter Qualität und den Wert von Daten guter Qualität“, so Selvage weiter. „Vor allem verknüpfen sie diese direkt mit den wichtigsten Kennzahlen für die Unternehmensleistung.“ Schlechte Datenqualität trifft Organisationen dort, wo es weh tut – beim Geld. Nach der Gartner-Umfrage belaufen sich die durch-schnittlichen jährlichen Finanzkosten je Unternehmen auf 15 Millionen US-Dollar. Das sind die direkten Kosten. Unternehmen sind aber nicht nur finanziell betroffen. Schlechte Datenqualitätspraktiken untergraben digitale Initiativen, schwächen ihre Wettbewerbsfähigkeit und säen Misstrauen der Kunden, betont Salvage.

Mehr Fakten gefällig? Gerne! Thomas C. Redman, Gründer von Data Quality Solutions und in der Community als „the Data Doc“ bekannt, schätzt, dass die Kosten schlechter Daten für die meisten Unternehmen bei 15 bis 25 Prozent des Umsatzes liegen. Diese Schätzung von Ende November 2017 stand nicht irgendwo, sondern im Sloan Management Review des MIT. Sie basiert auf aktuellen Untersuchungen von Experian (schlechte Daten kosten Unternehmen weltweit 23 Prozent des Umsatzes) sowie den Beratern James Price von Experience Matters (20.000 US-Dollar pro Mitarbeiter für schlechte Daten) und Martin Spratt von Clear Strategic IT Partners (16 bis 32 Prozent unnötiger Aufwand mit Daten).

Die Gesamtkosten für die US-Wirtschaft: schätzungsweise 3,1 Billionen US-Dollar pro Jahr, laut IBM. Das ist eine ordentliche Stange Geld. Dabei sind die Kosten, die Unternehmen durch wütende Kunden und Fehlentscheidungen entstehen, noch nicht einmal messbar – in jedem Fall aber enorm. Soweit die schlechte Botschaft. Die gute lautet: Schätzungsweise zwei Drittel der messbaren Kosten können laut Redman identifiziert und dauerhaft beseitigt werden.

Nun mag man einwenden, das seien ja vorrangig Zahlen aus den USA und die Verhältnisse in Deutschland – was Datenqualität angeht – viel besser. Das kann die Autorin aus eigener langjähriger Erfahrung leider nicht bestätigen. Im Übrigen weisen alle bisher bekannten empirischen Untersuchungen zur Datenqualität auch für die hiesigen Gefilde in dieselbe Richtung: Es besteht dringender Handlungsbedarf.

Status erheben: die „Friday Afternoon“-Messmethode

Wer dem Problem im eigenen Unternehmen auf den Grund gehen möchte, dem sei die „Friday Afternoon“-Messmethode empfohlen, die Thomas Redman entwickelt hat („Friday Afternoon“, weil die Methode ohne großen Aufwand an einem ruhigeren Freitagnachmittag in ein, zwei Stunden angewandt werden kann). Zunächst geht es darum, die Datensätze der letzten 100 in einer Gruppe, einer Abteilung erledigten Arbeitseinheiten zu sammeln. Bearbeitet die Gruppe Kaufaufträge, dann die letzten 100 Aufträge usw. Dann werden zehn bis 15 kritische Datenattribute definiert, also Attribute, die vollständig, fehlerfrei und konsistent sein müssen, damit mit den Datensätzen etwas anzufangen ist. Alles wird in eine Tabelle eintragen, die 100 Zeilen für die Datensätze und zehn bis 15 Spalten für die Datenattribute enthält.

Im nächsten Schritt geht ein kleiner Personenkreis Datensatz für Datensatz durch und markiert die offensichtlichen Fehler in den entsprechenden Tabellenfeldern farbig. Am Ende wird für jeden Datensatz festgehalten, ob er perfekt ist (keine Farbmarkierungen) oder nicht (Markierungen vorhanden), und die Summe der perfekten Datensätze gebildet. Diese Zahl, die zwischen 0 und 100 liegen kann, repräsentiert den Prozentsatz der korrekt erstellten Daten.

Redman hat zusammen mit Tadhg Nagle und David Sammon in einem Zeitraum von zwei Jahren mit 75 Führungskräften aus verschiedenen Unternehmen und Branchen, aus Regierungsbehörden sowie Abteilungen wie Kundenservice, Pro-duktentwicklung und Personal diese Bestandsaufnahme durchgeführt. Das Ergebnis war erschütternd: Nur 3 Prozent der Datensätze fielen in den „akzeptablen“ Fehlerbereich (als „akzeptabel“ galten hier mindestens 97 korrekte Daten-sätze von 100). Fast 50 Prozent der neu erstellten Datensätze wiesen mindestens einen kritischen Fehler auf. Dabei zeigte sich auch, dass keine Branche, Regierungsbehörde oder Abteilung gegen die Verwerfungen schlechter Datenqualität immun ist. Als Ergebnis kann festgehalten werden: Die Datenqualität ist in wesentlich schlechterem Zustand als es den meisten Führungskräften bewusst ist. Wer keine eindeutigen Beweise für das Gegenteil hat, muss davon ausgehen, dass die eigenen Daten auch nicht besser sind, warnt Redman.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Kosten aufzeigen: die „Zehner-Regel“

Gewissheit verschafft die „Friday Afternoon“-Messmethode. Und damit auch gleich die monetären Folgen der eigenen Befunde illustriert werden, kommt die sogenannte „Zehner-Regel“ zum Einsatz. Natürlich lassen sich die Kosten nicht exakt bemessen, aber die Zehner-Regel, so Redman, helfe dabei, zumindest eine realistische Vorstellung davon zu gewinnen. Die Regel besagt, dass „die Fertigstellung einer Arbeitseinheit zehn Mal so viel kostet, wenn die Daten in irgendeiner Weise fehlerhaft sind, als wenn sie perfekt sind“.

Nehmen wir als Beispiel noch einmal die Gruppe, die Kaufaufträge bearbeitet und sagen wir, sie muss davon 100 Stück pro Tag bearbeiten. Die Bearbeitung eines Kaufauftrags kostet 5 Euro, wenn die Daten perfekt sind. Sind die Daten aller 100 Kaufaufträge perfekt, liegen die täglichen Gesamtkosten bei 100 x 5 Euro = 500 Euro. Wenn nun nur 82 Kaufaufträge perfekte Datensätze haben, 18 aber fehlerhafte, dann sieht die Rechnung wie folgt aus: (82 x 5 Euro) + (18 x 50 Euro) = 410 Euro + 900 Euro = 1310 Euro. Ein Kostenanstieg um 162 Prozent. Dabei berücksichtigt die Zehner-Regel keine nicht-monetären Kosten wie verlorene Kunden, schlechte Ent-scheidungen oder einen Reputationsschaden.

Es ist am Ende unerheblich, ob die Kosten für die Bearbeitung von Arbeitseinheiten mit fehlerhaften Datensätzen nun zehn Mal höher liegt als mit perfekten Daten, oder nur acht oder sieben Mal. Allein nur die monetären Kosten liegen in jedem Fall deutlich höher, und die Zehner-Regel veranschaulicht dies. Zusammen mit der „Friday Afternoon“-Messmethode haben die Verantwortlichen zwei einfache In-strumente an der Hand, die sie dabei unterstützen, zum einen den Status zur Datenqualität zu erheben und zum anderen die Kosten schlechter Datenqualität zu illustrieren.

Monika PürsingMonika Pürsing, CEO, zet-Visions AG

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.