Ausblick auf die Data Warehouse-Landschaft 2018

Data Warehouse Automation ist heute weniger ein Thema der Werkzeuge, sondern vielmehr werden neue Methoden im Bereich der Business Intelligence, kurz BI, benötigt. Geschwindigkeit und Skalierbarkeit sind dabei treibende Faktoren für die Transformation kompletter Data Warehouses. Experten erwarten ein Jahr mit großen Veränderungen.

Neil Barton, CTO bei WhereScape, einem Anbieter im Bereich Data Warehouse-Automatisierung, fasst im Folgenden die Veränderungen und Herausforderungen für 2018 unter mehreren Aspekten zusammen. 

Anzeige

Data Warehouse-Transformation

„In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. Bereits 2017 haben Führungskräfte begonnen, das “Wie” der Daten in Frage zu stellen, und die Automatisierung der Dateninfrastruktur sowie die Beseitigung manueller und redundanter Elemente aus dem Entwicklungsprozess rückte in den Fokus.

Die Fortschritte in den Bereichen Automatisierung, Cloud und DevOps werden im kommenden Jahr die Art und Weise verändern, wie Data Warehouses aufgebaut und verwaltet werden und wie Unternehmen mit Daten arbeiten. Zukünftig wird die Technologie endlich auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sein, und als Ergebnis allmählich der Wert realisiert werden, den Data Warehouses liefern können. 2018 wird eine zunehmende Verlagerung hin zur Integration neuer Datenplattformen zusammen mit der traditionellen relationalen Datenbank zu beobachten sein, um eine breitere Palette von Verarbeitungsfunktionen besser nutzen zu können und eine vielfältigere Informationsumgebung mit der Flexibilität und Skalierbarkeit zu bieten, die es ermöglicht, mit einem Unternehmen zu wachsen. Die Automatisierung wird für die Entwicklung und Weiterentwicklung dieser Umgebung von entscheidender Bedeutung sein.“

IoT – effektive Methoden zur Analyse massiver Datenströme

„Im Jahr 2018 wird sich die Zahl der Unternehmen, die IoT-Fähigkeiten in diesem Bereich nutzen, aufgrund der technologischen Fortschritte, die mit Sensoren erzielt wurden, und des Wertes, der durch die gesammelten Daten realisiert wird, weiter rapide vergrößern. Der Segen und möglicherweise auch der Fluch der atemberaubenden Geschwindigkeit, mit der Unternehmen IoT-Sensoren einsetzen, sind die riesigen Datenmengen, die bei der Verfolgung von Dingen in Echtzeit anfallen. Darüber hinaus ist die zusätzliche Komplexität der Kombination dieser riesigen Daten, die in einer Vielzahl von Formen in das Unternehmen einfließen, von großem Nutzen für die Analytik.

Im nächsten Jahr werden sich die Unternehmen weiterhin mit dem Wunsch auseinandersetzen, Daten von Sensoren im Feld zu sammeln und zu verstehen, wie diese Daten am besten genutzt werden können. Um dies zu nutzen, müssen Unternehmen Technologien implementieren, die den konstanten Datenstrom bewältigen können, und zusätzlich nach effektiveren Methoden zur Analyse der Daten suchen, wie zum Beispiel maschinelles Lernen und Deep-Learning, um einen verwertbaren Einblick zu erhalten.“

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Data Lake Konzepte

Data Lakes sind kein neues Konzept, aber mit zunehmender Datenerhebung und der Notwendigkeit, all diese Rohdaten zu speichern, werden sie immer wichtiger für den Erfolg des datengetriebenen Geschäfts. 2018 wird wahrscheinlich das Jahr sein, in dem die Unternehmen beginnen zu verstehen, was “Schema-on-Use” wirklich bedeutet und die damit verbundenen Auswirkungen auf formalisierte “data quality”-Programme und -Praktiken. Nur ein gut verwalteter Data Lake wird erfolgreich sein – der Rest verwelkt und stirbt.

Wenn ein Data Lake korrekt eingerichtet ist, kann er alle Daten und Informationen, die in einem Unternehmen gespeichert wurden, in einem dynamischen, unstrukturierten Repository speichern, das Flexibilität und schnelle Veränderungen ermöglicht und den Weg für zukünftige Self-Service-Analysen ebnet.“

Datenumgebung Cloud

„Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein. Cloud-first wird wahrscheinlich zur Normalität werden und selbst große Unternehmen werden diese Haltung voll und ganz akzeptieren. Die größte Herausforderung für Unternehmen, die diesen Übergang vollziehen, wird sein, wie sie den Zeitraum, in dem sie über Daten sowohl on-Premise als auch in der Cloud verfügen, bewältigen können. Wir arbeiten bereits mit Unternehmen zusammen, um automatisierte und effiziente hybride Datenumgebungen zu entwickeln und zu betreiben, und erwarten, dass diese Zahl im nächsten Jahr drastisch ansteigen wird.” 

Neil Barton

 

Autor: Neil Barton ist Chief Technology Officer (CTO) bei WhereScape in Portland/Oregon. Er leitet die langfristige Architektur- und Technologievision für WhereScape’s Datenautomationslösungen. Barton konzentrierte sich als Senior Architect bei WhereScape auf große Datenlösungen und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Software-Architektur, Data Warehousing und Business Intelligence, unter anderem bei Oracle Australia und Sequent Computer Systems. Barton ist auch Miterfinder von drei US-Patenten im Zusammenhang mit Business-Intelligence-Softwarelösungen.

 

 

 

wherescape.com 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.