6 Analytics-Trends, die die Datenarchitektur enorm beeinflussen

DatenanalysePrognosen zu Analytics-Trends gibt es wie Sand am Meer. Relevant sind vor allem diejenigen, die aufzeigen, welche dieser Entwicklungen einen Einfluss auf die Unternehmens-IT haben werden.

Diskutiert werden hier sechs Trends – angefangen bei Datensicherheit über Internet of Things, bis hin zu Data Science –, von denen jeder einzelne eine enorme Herausforderung für die unternehmenseigene Datenarchitektur darstellt. Deutlich wird: Keine dieser Herausforderungen lässt sich nur anhand von Applikationen oder einzelner Projekte lösen. IT-Manager und -Architekten, die die Verwaltung der jeweiligen Daten verantworten, müssen auf skalierbare Daten-Management-Architekturen setzen, um derartige Innovationen reibungslos und effektiv im Unternehmen zu integrieren.

Anzeige

Auch wenn Unternehmen keine großen transformativen Investitionen tätigen können, um die vorhandene Datenarchitektur an neue Entwicklungen anzupassen, können sie einzelne Stolpersteine so angehen, dass sie dem Ziel der erfolgreichen Integration zumindest einigermaßen nahe kommen. Anhand von der sechs Trends zeigen wir auf, was das konkret bedeutet:

1. Cyber-Sicherheit

Angriff noch immer die beste Verteidigung Perimeterschutzmechanismen reichen nicht aus. Daten sind schließlich nicht statisch. Sie sind ständig in Bewegung, wandern von einem Ort an einen anderen, werden geändert, angepasst oder mit anderen zusammengefügt. Die Herausforderung ist es, hier herauszufinden, welche dieser Daten sensibel sind – und diese dann auch entsprechend zu handhaben. Die vorhandene Datenarchitektur muss IT-Manager genau dazu in die Lage versetzen: nämlich sensible Dateien zu identifizieren, sobald sie das Firmennetzwerk „betreten“ und sie auch auf ihrem weiteren Weg innerhalb des Netzwerks kontinuierlich im Auge zu behalten.

2. IT-Abteilung: Dürre an Daten-Skills

In der Theorie können sich Unternehmen mithilfe von Big Data-Analysen Informationen erschließen, von denen sie bislang nur geträumt haben. In der Praxis ist jedoch das Problem, das in der Regel kaum Personal da ist, das die nötigen Fähigkeiten dazu auch besitzt. IT-Fachleute mit entsprechender Qualifikation sind rar gesät und deshalb entsprechend teuer. Noch schlimmer ist die Tatsache, dass laut der New York Times die Personen, die sich in dem Gebiet auskennen, dennoch 50 bis 80 Prozent ihrer Zeit darauf verwenden, Daten aufzubereiten statt fruchtbare Business Insights zu liefern. Es lässt sich eben nur das Beste aus entsprechend qualifizierten Mitarbeitern herausholen, wenn Datenarchitektur und -werkzeuge die Voraussetzung dafür schaffen. Diese müssen sofort auf sämtliche Datentypen anwendbar sein: große Datenmengen; strukturierte, unstrukturierte und semi-strukturierte Datenmengen; auf Datenstreaming und Daten in der Cloud, und so weiter. Nur wenn ein einziges Tool mit wirklich allen Daten arbeiten kann, lassen sich Ressourcen, die sonst in eine mühevolle Datenaufbereitung geflossen wären, ummünzen auf tiefergreifende Analysen und datenbasierte Erkenntnisgewinne.

3. Vermehrte Partnerschaften zwischen Mensch und Maschine

Intelligente Maschinen und kognitive Lösungen tragen unbestrittenermaßen dazu bei, das Service-Level, beispielsweise für Kunden und Patienten, zu verbessern. Die Frage für Unternehmen ist nur, ob die vorhandene Datenarchitektur die Daten, die diese Applikationen effektiverweise benötigen, überhaupt liefern kann. Lassen sich neu hinzukommende Daten wirklich zügig integrieren, reinigen und zeitnah bereitstellen? Wichtig ist unter anderem die Unterstützung von Echtzeit- oder Streaming-Daten, die zeitnahe Entscheidungen und Empfehlungen ermöglichen.

4. Das Internet der Dinge (und Menschen!)

Unternehmen werden durch Daten, die sie mithilfe von Sensoren erheben, einen riesigen Wettbewerbsvorteil erhalten. Egal ob Sport-Equipment, das dem Träger direktes Feedback gibt oder Krankenhausmaschinen, die auf Patientendaten in Echtzeit reagieren – das, was wir bislang unter „Service“ verstehen, wird zukünftig nochmal eine ganz andere Ebene erreichen. Die Datenarchitektur von Unternehmen muss deshalb zukünftig in der Lage sein, massive Datenberge zu bewältigen, auf relevante Informationen herunter zu brechen und sie den jeweiligen Anwendungen bereitzustellen, und das automatisiert.

5. Triumph der Wissenschaft

Dieser Trend überschneidet sich mit Punkt 2. Unternehmen müssen immer häufiger die Hilfe von Wissenschaftlern – vor allem Datenwissenschaftlern – in Anspruch nehmen, um Wettbewerbsvorteile zu ergattern. Nur, haben diese auch die Zeit dafür? Können sie die Datenaufbereitung links liegen lassen und sich wichtigeren Dingen widmen? Vor allem, wenn es für viele Unternehmen noch immer ein Problem darstellt, bereits vorhandene Daten ausfindig zu machen und richtig zu lesen? Datenwissenschaftler können eben auch nur schneller und intelligenter agieren, wenn die Unternehmensarchitektur und Werkzeuge es ihnen ermöglichen.

6. Die Insights-getriebene Organisation: Datenanalysen erobern weitere Unternehmensbereiche

Analytics sind nicht nur etwas, was Business Intelligence-Experten und Datenwissenschaftler irgendwo im geheimen Kämmerlein nachgehen. Es muss ein Plan existieren, wie Analytics in Applikationen und breitere Geschäftsprozesse integriert werden sollen, um Mitarbeitern und Kunden direkten Mehrwert zu liefern, beispielsweise durch die Empfehlung von möglichen nächsten Schritten, ob für Vertriebs- oder Kundenservice-Mitarbeiter oder bezüglich Marketingkampagnen. Dies lässt sich allerdings nur gewährleisten, wenn Daten aus verschiedenen unterschiedlichen Quellen schnell und in guter Qualität bereitgestellt werden können.

Dirk HäussermannDirk Häußermann, Geschäftsführer EMEA Central bei Informatica

www.informatica.com/de
 

Das könnte Sie ebenfalls interessieren:

Workbook: Machbarkeitsnachweis für Big-Data-Projekte
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.