Anzeige

Anzeige

VERANSTALTUNGEN

Bitkom | Digital Health Conference
26.11.19 - 26.11.19
In dbb Forum Berlin

IT & Information Security
26.11.19 - 27.11.19
In Titanic Chaussee Hotel, Berlin

Integriertes IT Demand und Portfolio Management
02.12.19 - 04.12.19
In Sofitel Berlin Kurfürstendamm, Germany

IT-Tage 2019
09.12.19 - 12.12.19
In Frankfurt

eoSearchSummit
06.02.20 - 06.02.20
In Würzburg, Congress Centrum

Anzeige

Anzeige

Pfeile Gut Schlecht 243988993 700

Das Qualitätsmanagement für Stamm- und Bewegungsdaten ist in die Liga der Top-Themen für den Mittelstand aufgestiegen. Grund dafür sind Digitalisierung und Industrie 4.0. Um die eigene Datenqualität hinreichend beurteilen zu können, rät der ERP-Hersteller proALPHA, sieben Kriterien heranzuziehen.

Viele Unternehmen haben in der Vergangenheit ihre Datenqualität vernachlässigt, aus unterschiedlichen Gründen. Dass ihre ERP-Systeme dadurch nur suboptimal performten, war ihnen nicht bewusst oder nahmen sie billigend in Kauf. Mit der Digitalisierung der Prozesse und dem rasanten Aufstieg von Künstlicher Intelligenz (KI) wird dies noch zu einem größeren Risiko. Denn es ist wissenschaftlich hinreichend belegt: Eine schlechte Datenqualität beeinflusst Effizienz und Ergebnis, auch bei KI-Systemen wie selbstlernenden Maschinen. Für viele Firmen wird es Zeit, aktiv zu werden.

proALPHA rät, Daten einem siebenstufigen Leistungstest zu unterziehen - und zwar eigene Bestände genauso wie Informationen aus anderen Quellen, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Die entscheidenden Performanceparameter sind:

Vollständig

Fehlen Informationen, ist das mehr als nur ärgerlich. Je digitalisierter Abläufe werden, umso wichtiger ist es, dass sämtliche benötigen Daten vorliegen. Sind beispielsweise Angaben zu den Bauteilen für ein Produkt unvollständig, stockt möglicherweise der Produktionsprozess oder das Endprodukt entspricht nicht den Vorgaben. Um die Performance der Geschäftsprozesse sicherzustellen, empfehlen sich die Definition von Pflichtfeldern sowie automatisierte Prüfungen an ausgewählten Prozesspunkten. Unternehmen sollten dennoch nicht in „Datensammelwut“ verfallen. Denn bei personenbezogenen Daten gilt seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO) das Gebot der Sparsamkeit: Es dürfen nur so viele Informationen gespeichert werden, wie tatsächlich nötig sind. Nicht mehr erforderliche Daten sind nachhaltig zu löschen.

Aktuell

Nicht-synchronisierte Adress- und Kontaktdaten sind ein Paradebeispiel für veraltete Informationen. Gerade weil Vertriebsmitarbeiter nur sporadisch in der Zentrale vorbeischauen, war in der Vergangenheit die Kundendatenbank nie auf dem aktuellen Stand. Mobile CRM-Lösungen sorgen hier für Abhilfe. Sie halten zudem auch so produktionskritische Informationen wie Lagerdaten auf Stand. Dennoch muss nicht jeder Status in Echtzeit vorliegen. Unternehmen sollten vielmehr ihre Prozesse einem Check unterziehen, wo eine schnellere Datenbereitstellung für mehr Produktivität sorgt und genau dort ansetzen.

Konsistent

Datensätze in verschiedenen Systemen dürfen sich nicht widersprechen. In der Praxis führen eine doppelte Datenhaltung in mehreren Datensilos und manuelle Übertragung im besten Fall „nur“ zu Mehraufwand für die Dateneingabe. Im schlimmsten Fall entstehen Fehler, etwa beim Übertrag der Auftragsdaten in eine Software für Qualitätssicherung. Daraus resultierende Inkonsistenzen sind heute, dank moderner Integrationstechniken, relativ einfach in den Griff zu bekommen.

Konform

Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, zum Beispiel im passenden, möglichst standardisierten Format vorliegen. Datums- und Währungsformate sind hier Klassiker. Bei Zeitstempeln ist ferner darauf zu achten, dass zusätzlich zu Stunden und Minuten auch die jeweilige Zeitzone miterfasst wird. Schließlich liegen zwischen 8 Uhr in Shanghai und 8 Uhr in São Paulo zwölf Stunden Zeitunterschied.

Genau

Daten müssen genau sein. Genauer gesagt: Sie müssen ausreichend genau sein. Denn nicht jeder Geschäftsprozess benötigt Hochpräzisionsdaten bis auf die x-te Kommastelle. Auch hier sollten sich Unternehmen zuerst fragen: Wie exakt müssen Messwerte und andere Daten sein? Die benötigte Genauigkeit sollte dann auch systemseitig durch entsprechende Regeln und Datenprüfungen nachgehalten werden.

Einzigartig

Dubletten blähen nicht nur den Datenbestand unnötig auf. Sie sorgen auch für unnötige Rückfragen. Bleiben sie unentdeckt, kommt es schnell zu Fehlinterpretationen. Zum Beispiel, wenn ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden. Redundante Daten aus einem Bestand herauszufiltern, geht bereits mit Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich so Dubletten immer wieder ein und die Arbeit beginnt von vorn. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg zu sauberen Daten.

Richtig

Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: nämlich die Richtigkeit, die Verlässlichkeit der Daten. Die aktuelle Diskussion um Fake News unterstreicht dies einmal mehr: Eine „topaktuelle“ Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend korrekt sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein.

Das Verhältnis der Unternehmen zu ihren Daten ist oft zwiespältig: An einigen Stellen, etwa im Vertriebs- oder Finanzbereich, wird ihrer Qualität teilweise offen misstraut, an anderen Stellen, zum Beispiel in der Produktion, wird die Qualität oft überschätzt. Ein nachhaltiges Qualitätsmanagement für Daten hilft in dreierlei Hinsicht: Es bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen. Vor allem aber helfen richtig gemanagte Daten, Prozesse zu digitalisieren. Um dieses Plus an datengetriebener Effizienz zu erzielen, können sich Unternehmen bei Spitzenmannschaften im Sport einiges abschauen: Es braucht eine profunde und ehrliche Analyse, eine klare Strategie und den individuellen Einsatz für kontinuierliche Verbesserung, auf allen Ebenen des Teams.

www.proalpha.de

GRID LIST
Big Data Trends 2020

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
CDO

Die wichtige Funktion des Chief Data Officer im digitalen Wandel

Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an…
Datamanagement

Datenqualität: Die Achillesferse der Digitalisierung schützen

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die…
Datenkugel

Alle Daten im Griff mit Datenvirtualisierung

Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend…
Fragezeichen

Cloud-Server vs. NAS: Wann ist welche Methode sinnvoll?

Heutzutage hat die sichere Lagerung der eigenen Daten eine enorme Bedeutung. Da immer…
Digitale Erde

Die drei Bausteine moderner Datenanalyse

Unsere Welt besteht aus einer Vielfalt an Informationen - laut einer kürzlich erschienen…