Marktkommentar zur Studie

Finanzindustrie: Von Datensilos zu Datenströmen

Datenströme statt Datensilos

Finanzdienstleister haben ein Ziel klar vor Augen: Veraltete Strukturen aufbrechen und möglichst schnell übergreifend und performant aus möglichst vielen Daten Informationen erzeugen. In der Praxis zeigt sich jedoch, dass es in Banken und Versicherungen noch immer zahlreiche Datensilos und Blockaden gibt.

Die aktuelle KPMG-Studie „Von Datensilos zu Datenströmen“ zeigt die Herausforderungen auf dem Weg, erklärt Fanny Luthmann, Partnerin und Spezialistin für integrierte IT- und Datenarchitekturen in der Unternehmenssteuerung von Banken.

Anzeige

Ob Transaktionen, Kundeninformationen oder Marktdaten zu Finanzprodukten – Finanzdienstleister wälzen tagtäglich eine unvorstellbar große Menge an Zahlen. Ein effizienter Umgang mit Daten ist für ihren Geschäftserfolg deshalb von zentraler Bedeutung. Kein Wunder also, dass die meisten von ihnen viel Geld und Zeit in die Organisation von Großrechnern und Datenbanken stecken. Dennoch hinkt die Branche den technischen Möglichkeiten der Digitalisierung noch immer hinterher.

Datengetriebene Unternehmen als Benchmark

Der Grund: Veraltete und siloartige (Daten-)Architekturen, auf denen Prozesse und Funktionen über viele Jahre stetig gewachsen sind, führen zu Intransparenz und Ineffizienz. Der Fokus auf die Umsetzung immer neuer regulatorischer Anforderungen in bestehenden Systemwelten macht die Anwendungen eher komplexer. Auf dieser Basis sind Vereinfachungen, Verschlankung und Zusammenführung von Prozessen und Datenflüssen nahezu unmöglich.

Dabei müsste sich die Branche eigentlich möglichst schnell in die Richtung einer KI-basierten und vollautomatischen Datenverarbeitung entwickeln, um die vielfältigen Informationen nutzen und z.B. Wettbewerbsvorteile generieren zu können – etwa durch ein schnelles und flexibles Reporting oder innovative und individualisierte Produkte. Neben der Schaffung technologischer Voraussetzungen, sind hier vor allem auch kulturelle Barrieren zu überwinden, um zu einer Demokratisierung der Daten zu gelangen. Wie Banken und Versicherungen die Entwicklung wahrnehmen und den Herausforderungen am besten begegnen können, hat KPMG in einer gemeinsamen Umfrage mit dem Marktforschungsinstitut Lünendonk untersucht. Ihre Ergebnisse zeigen reichlich Licht und Schatten.

„Von Datensilos zu Datenströmen“, so der Titel der KPMG-Umfrage, die sowohl die derzeitige Problemlage als auch das ausgerufene Ziel der Finanzbranche zusammenfasst. Nämlich den Wandel zum „datengetriebenen Unternehmen“ möglichst schnell umzusetzen. Die Vorzüge solcher Unternehmen: alle (strategischen) Entscheidungen können datenbasiert getroffen werden. Hierfür steht ein effizientes und flexibles Reporting auf qualitativ hochwertigen und umfassenden Daten zur Verfügung. Von der Kundenschnittstelle über die Produktentwicklung bis hin zur Unternehmenssteuerung sind alle Prozesse darauf ausgerichtet. Ein zentrales Datenmanagement, agile und interdisziplinäre Teams sowie eine systematische und wirkungsvolle Data Governance sind Voraussetzungen dafür.

Des Weiteren zeichnen sich datengetriebene Unternehmen dadurch aus, dass sie durch eine ausgeprägte Datenkultur und Data Literacy ein höheres Bewusstsein für die Qualität und den Nutzen von Daten schaffen. Damit bewegen sie sich weg von rein regulatorisch geprägten Data Governance-Umsetzungen hin zu einem nutzenorientierten Umgang mit Daten.

Im Resultat befähigt das datengetriebene Unternehmen auch zu einem effizienteren Umgang mit modernen Technologien wie der Cloud oder Künstlicher Intelligenz. Eine wichtige Voraussetzung, um im internationalen Wettbewerb zu bestehen, weshalb 75 Prozent der Befragten Finanzdienstleister der Transformation zum datengetriebenen Unternehmen eine hohe Bedeutung zusprechen. Dabei gehen sie davon aus, dass eine Transformation mit mehr Kosteneinsparungen (84 Prozent), einer verbesserten Prozessqualität (81 Prozent) und schnelleren und besseren Entscheidungen einhergeht (90 Prozent).

Datensilos als zentrales Problem

Das Ziel der Finanzdienstleister ist laut der KPMG-Studie „Von Datensilos zu Datenströmen“ also klar: Veraltete Strukturen aufbrechen und möglichst schnell eine übergreifende Organisation der Daten ermöglichen. In der Praxis zeigt sich jedoch, dass es in Banken und Versicherungen noch immer zahlreiche Datensilos und Blockaden gibt. So kennen die einzelnen Fachbereiche zwar sehr gut ihre eigenen Daten, haben aber nur eine eingeschränkte Sicht auf andere im Unternehmen vorhandene Daten. In jedem zweiten befragten Unternehmen liegt die Verantwortung für das Datenmanagement derzeit in den einzelnen Fachbereichen.

Eine der großen Herausforderungen in den kommenden Jahren wird es deshalb sein, sich in der fachübergreifenden Sammlung, Speicherung und Verwertung von Daten zu verbessern. Um signifikante Effizienzsteigerungen zu realisieren, wird es entscheidend sein, alle für ein Reporting notwendigen Daten schnell und in hoher Qualität zentralisiert zusammenzuführen – also einen unternehmensweiten Blick auf Daten zu erhalten. Vor diesem Hintergrund versuchen 71 Prozent der befragten Banken und Versicherungen, hybride Daten-Architekturen von Data Warehouse und Data Lake zu realisieren. Damit sinkt der Anteil derjenigen Unternehmen die ausschließlich auf Data Warehouse-Konzepte setzen.

NL Icon 1
Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.

Daten zentraler, aber noch in schlechter Qualität

Erste Erfolge auf dem Weg zum datengetriebenen Unternehmen können die Finanzdienstleister laut Studie bereits verzeichnen. So ist der Anteil der Banken und Versicherer mit einer komplett zentralen Datenhaltung, die nicht mehr in einzelne Datensilos aufgeteilt ist, von 38 auf 40 Prozent gestiegen. Weitere 52 Prozent haben Teile ihrer Unternehmenssteuerung – vor allem den regulatorischen Bereich – durch ein zentrales Datenmanagement strukturiert. Das Problem: Die anfängliche Zentralisierung reicht noch nicht aus, da rund 55 Prozent der Befragten ihre Datenqualität bestenfalls als mittelmäßig beschreiben. Keine gute Ausgangsbasis für Effizienzsteigerungen und Wettbewerbsfähigkeit.

Die Gründe für die schlechte Datenqualität sind sowohl organisatorischer als auch technischer Natur. Als wichtigste Qualitätsbremse nennen die Befragten mit 82 Prozent eine nicht ausgeprägte Datenkultur im Unternehmen. Aber auch fehlende Zuständigkeiten und mangelhafte Interoperabilität der IT-Systeme stehen einer hohen Datenqualität im Weg. Umso mehr ist es ratsam, die notwendigen Veränderungsschritte jetzt konsequent und mit hoher Priorität anzugehen. Was es dafür braucht sind inkrementelle Ansätze, statt kleiner Schritte. Um der schlechten Datenkultur zu begegnen, empfiehlt es sich saubere Datenumgebungen aufzubauen, damit Mitarbeiter auf konsistente Daten zugreifen können und sich Vertrauen bildet. Ein Effekt, der durch Weiterbildungen und Neueinstellungen von Talenten verstärkt wird, genauso wie durch ein Vorangehen des Top-Managements. Ebenfalls gefordert ist das Management auch bei der Definition von Data-Governance-Rollen und Verantwortlichen sowie einer zentralen Einheit zur Durchsetzung der Regeln (Governance-Rat). Zu guter Letzt geht es auch darum Datensilos einzureißen und Schnittstellen zu schaffen, um einen offenen Austausch und End-to-End-Prozesse zu ermöglichen.

Autor: Fanny Luthmann, Partnerin im Bereich Financial Services von KPMG Deutschland

home.kpmg/de/de/home.html

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.