Anzeige

Anzeige

VERANSTALTUNGEN

Bitkom | Digital Health Conference
26.11.19 - 26.11.19
In dbb Forum Berlin

IT & Information Security
26.11.19 - 27.11.19
In Titanic Chaussee Hotel, Berlin

Integriertes IT Demand und Portfolio Management
02.12.19 - 04.12.19
In Sofitel Berlin Kurfürstendamm, Germany

IT-Tage 2019
09.12.19 - 12.12.19
In Frankfurt

eoSearchSummit
06.02.20 - 06.02.20
In Würzburg, Congress Centrum

Anzeige

Anzeige

Herz aus Daten

Die Online-Partnerwahl und richtige Geschäftsentscheidungen haben eines gemeinsam: sie basieren auf qualitativ guten Daten. Otto Neuer, Vice President Sales EMEA Central bei Talend, erläutert in diesem Kommentar, wie Sie den den Wert der eigenen Daten zu steigern.

Nun will Facebook also Amor spielen: Auf seiner F8 Entwicklerkonferenz vermeldete das soziale Netzwerk den Einstieg in die Online-Partnervermittlung. Warum auch nicht? Die vorhandenen Nutzerdaten bilden die ideale Basis dafür, mit Hilfe eines geeigneten Algorithmus den perfekten Partner zu finden. Dafür sind jedoch Daten notwendig, die valide sind und in hoher Qualität vorliegen. Gleichzeitig ist diese Ankündigung ein gutes Beispiel dafür, wie Unternehmen ihre vorhandenen Datenschätze heben können und sich damit neue Geschäftspotenziale eröffnen.

Wie aber gelingt es Unternehmen generell, die eigene Datenqualität zu verbessern? Hierbei helfen Data Governance-Prozesse und die Entwicklung geeigneter Strategien für ein ganzheitliches Datenmanagement. Zunächst gilt es aber die Kriterien für gute Daten zu definieren, die je nach Unternehmen unterschiedlich ausfallen können. Dazu zählen Aspekte wie Aktualität, Relevanz, Fehlerfreiheit und Konsistenz – hierbei sollten sich also Daten aus verschiedenen Quellen nicht widersprechen. Weiterhin ist es hilfreich zu untersuchen, an welchen Stellen sich Fehler in Stammdaten besonders häufig einschleichen. Denn auch hier gilt die bekannte Programmiererweisheit: Garbage in, Garbage out. Frei übersetzt: schlechte Datenquellen führen zu schlechten Ergebnissen.

In der Praxis finden sich Fehlerquellen über die gesamte Wertschöpfungskette des Datenmanagements hinweg. Dies können menschliche Eingabefehler bei der Datenerfassung sein, fehlerhafte Sensordaten oder unvollständige Datenimports bei automatisierten Prozessen. Aber auch verschiedene Formate von Daten können zu Fehlern führen, im einfachsten Fall bei der Verwendung des Datums in US-amerikanischer oder deutscher Schreibweise sowie bei Unklarheit darüber, ob das metrische oder angloamerikanische Maßsystem zum Einsatz kommt. Darüber hinaus führen auch organisatorische Mängel zu Datenfehlern, beispielsweise wenn nicht klar definiert ist, wer für welche Datensätze zuständig ist.

Auf dem Weg zu mehr Datenqualität lassen sich fünf Punkte festmachen, die dabei helfen, den Wert der eigenen Daten zu steigern.

1. Ziele klären

Alle am Projekt Beteiligten sollten sich über die Business-Ziele einigen, die mit einer Initiative für eine bessere Datenqualität erreicht werden sollen. Von Sales über Marketing bis zum Management hat jede Organisationseinheit unterschiedliche Erwartungen. Während Entscheider eher fundierte Analysen mit für sie relevanten und aktuellen Informationen benötigen, kann es für ein Vertriebsmitarbeiter entscheidend sein, dass Adressdaten korrekt und vollständig vorliegen.

2. Daten finden und katalogisieren

In vielen Organisationen liegen Daten in unterschiedlichen Formaten ab, von Papierakten und Excel-Tabellen über Adressdatenbanken bis zu unternehmensweit genutzten Business-Anwendungen. Eine wichtige Aufgabe besteht darin, diese Datenbestände zu lokalisieren und die dort vorhandenen Informationen zu katalogisieren. Erst wenn das Unternehmen weiß, welche Daten in welcher Aktualität und in welchem Format wo liegen, kann ein Prozess zur Verbesserung der Datenqualität geplant werden.

3. Harmonisierung der Daten

Basierend auf der initialen Bestandsaufnahme wird nun ein Abgleich mit dem zu erreichenden Ziel vorgenommen. Daraus können sich vielfältige Aufgaben ergeben, wie eine Standardisierung von Schreibweisen, Datenformaten und Datenstrukturen. Hierbei kommen unter anderem Werkzeuge für Data Preparation und zur Deduplizierung zum Einsatz, um einen harmonisierten Datenbestand zu erhalten, während Lösungen für das Data Profiling dabei helfen, eine Analyse und Bewertung der Datenqualität vorzunehmen.

4. Analyse, Auswertung und Aufbereitung

Wer seine Datenbestände zusammenführt und in einer Cloud in einem Data Lake oder Data Warehouse aufbereitet, kann dort sehr flexibel verschiedenste Aufgaben zur Datenaufbereitung durchführen. Beispielsweise bietet Talend seine Software-Lösungen für Datenintegration und Datenmanagement auch für den Einsatz in der Cloud. Wer Streaming-Daten verarbeiten muss, die von Sensoren aus einer Internet of Things-Umgebung stammen, hat die Möglichkeit, mit Cloud-Ressourcen sehr flexibel die eingehenden Daten auf statistische Abweichungen prüfen und kann so verfälschte Datenpakete aussortieren.

5. Kontinuierliche Prozesse etablieren

Das Sicherstellen der Datenqualität ist ein kontinuierlicher Prozess. Schließlich werden immer wieder neue Daten erhoben und in die eigenen Systeme integriert. Selbst wenn externe Datenquellen schon hochwertige Daten zur Weiterverarbeitung liefern, ist es dennoch notwendig, die eigenen Datenbestände immer wieder über ein Data Monitoring zu prüfen und zu validieren. Hierfür gibt es ganz unterschiedliche Lösungen, angefangen von Self-Service-Lösungen zur Datenbereinigung über regelbasierte Anwendungen zur Datentransformation bis hin zu selbstlernenden Software-Lösungen, die eigenständig Datenformate überwachen und statistische Anomalien erkennen und korrigieren. Algorithmen für Deep Learning bzw. künstliche Intelligenz sind heute schon in der Lage, viele Aufgaben rund um das Datenmanagement in Big Data-Szenarien zu übernehmen. Wichtig ist jedoch, dass Verantwortlichkeiten für das Datenmanagement benannt werden und entsprechend Prozesse zur Qualitätssicherung fest in den betrieblichen Abläufen verankert sind.

Fazit

Das Datenqualitätsmanagement ist eine Team-Aufgabe, die sich über alle Funktionsbereiche eines Unternehmens hinweg erstreckt. Daher ist es sinnvoll, auch den Mitarbeitern in den Fachbereichen Werkzeuge an die Hand zu geben, um im Self-Service die Datenqualität zu sichern. Hier bieten sich insbesondere Cloud-basierte Werkzeuge an, die schnell und unkompliziert in den Fachbereichen ausgerollt werden können. So ausgerüstet, gelingt es Unternehmen ihre Datenqualität schrittweise zu verbessern und den Wert ihrer Daten zu steigern. Dies führt zu zufriedenen Mitarbeitern und glücklichen Kunden. Und wer weiß, vielleicht liegt es künftig tatsächlich in der Hand von geschickt programmierten Algorithmen, dass wir über Facebook schnell und verlässlich unseren Partner fürs Leben finden.

https://de.talend.com/
 

GRID LIST
Big Data & more

Von Data Lakes, -Marts, -Vaults und -Warehouses

Big Data oder Data Analytics sind einige der größten Herausforderungen für die IT unserer…
Big Data Trends 2020

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
CDO

Die wichtige Funktion des Chief Data Officer im digitalen Wandel

Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an…
Datamanagement

Datenqualität: Die Achillesferse der Digitalisierung schützen

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die…
Datenkugel

Alle Daten im Griff mit Datenvirtualisierung

Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend…
Fragezeichen

Cloud-Server vs. NAS: Wann ist welche Methode sinnvoll?

Heutzutage hat die sichere Lagerung der eigenen Daten eine enorme Bedeutung. Da immer…