Anzeige

Anzeige

VERANSTALTUNGEN

Bitkom | Digital Health Conference
26.11.19 - 26.11.19
In dbb Forum Berlin

IT & Information Security
26.11.19 - 27.11.19
In Titanic Chaussee Hotel, Berlin

Integriertes IT Demand und Portfolio Management
02.12.19 - 04.12.19
In Sofitel Berlin Kurfürstendamm, Germany

IT-Tage 2019
09.12.19 - 12.12.19
In Frankfurt

eoSearchSummit
06.02.20 - 06.02.20
In Würzburg, Congress Centrum

Anzeige

Anzeige

Datenkugel

Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend abhängiger von einem schnellen und unkomplizierten Zugriff auf geschäftsrelevante Daten. Datenvirtualisierung hilft ihnen dabei, auch in fragmentierten hybriden Infrastrukturen die Kontrolle zu behalten, erklärt Thomas Niewel von Denodo.

Die Datenmengen, die sich in Unternehmen ansammeln, werden immer größer und unübersichtlicher. Es handelt sich dabei um unterschiedlichste Datenformate, die an verschiedenen Orten gespeichert sind. Dabei ist es für Unternehmen so wichtig wie nie, sich unverzüglich Zugriff auf relevante Daten verschaffen zu können. Kein Wunder also, dass immer mehr Firmen in allen vertikalen Märkten Datenvirtualisierung als fundamentalen Bestandteil ihrer IT-Infrastruktur implementieren.

Die Evolution: Data Warehouse, logisches Data Warehouse, Datenvirtualisierung

Vor zehn Jahren wurde der Begriff des logischen Data Warehouse von Gartner eingeführt. Dabei ging es um die Notwendigkeit, existierende Data Warehouse Architekturen logisch zu erweitern. Sie sollten weitere Daten enthalten – vornehmlich aus Data Lakes und ODS Systemen – was sie bis dahin nicht taten.

Zwar handelt es sich dabei um eine leistungsfähige und flexible Architektur, doch es ist mit einem Fischglas vergleichbar. Außerhalb davon befindet sich die große weite Welt und zahlreiche weitere Fischgläser. Und genau diese Welt müssen Unternehmen heute erschließen.

Daher geht die Datenvirtualisierung noch einen Schritt weiter und funktioniert als einheitliche Bereitstellungsplattform für alle Unternehmensdaten. Sie erschließt nicht nur Daten eines logischen Data Warehouse, sondern integriert zudem auch Data Marketplaces, Streaming-Daten und jedes andere System, das Daten generiert. So lassen sich Datensilos auflösen und flexiblere Anwendungsszenarien ermöglichen.

Schlüsselaspekte der Datenvirtualisierung

Der wichtigste Aspekt der Datenvirtualisierung ist ihre Fähigkeit, den Standort und die Implementierung von Daten zu abstrahieren und die Geschwindigkeit der Datenbereitstellung zu erhöhen, da es nicht nötig ist, die Daten zu replizieren. Nutzer haben die Möglichkeit, quasi per Selbstbedienung auf Daten zuzugreifen.

Diese Abstraktion lockert die bislang starke Verknüpfung zwischen IT und Business auf. Einerseits stellt Sie den Nutzern ein stabiles und verständliches Datenmodell bereit, welches die Nutzer über Standardmethoden – wie SQL oder einer REST API – erreichen können. Andererseits ermöglicht Sie der IT das jeweils passendste und innovativste Data Management System für die Daten bzw. für den Anwendungsfall zu verwenden.

Dadurch werden Silos beseitigt und die Nutzer können mit den Anwendungen ihrer Wahl auf Daten zugreifen, egal, ob es sich dabei um Reporting- oder Data-Science-Tools, um Unternehmensanwendungen, mobile oder Webanwendungen handelt.

Drei Architekturen, eine Bereitstellungsplattform

Datenvirtualisierung bildet also das Rückgrat einer einheitlichen Datenbereitstellungsplattform, die maßgeblich zur Modernisierung der ihr zugrunde liegenden Datenlandschaft beiträgt. Eine derartige Plattform entfaltet in zahlreichen Architekturen positive Effekte, die in Zukunft eine immer wichtigere Rolle spielen werden.

Datendienst-Ebenen aktivieren

Ein Beispiel ist der Einsatz von Datenvirtualisierung als Datendienst-Ebene. In diesem Szenario gibt die Datenvirtualisierung zertifizierte Datendienste aus, die von jedem Entwicklerteam genutzt werden können. Dadurch umgeht man das Problem, dass Projektteams eigene Silo-Datensätze erstellen oder nicht zertifizierte oder nicht gepflegte Datenquellen verwenden.

Eine Datendienst-Ebene ermöglicht keinen direkten Zugriff auf die Datenquellen. Stattdessen werden konsistente Datensätze ausgegeben und durch den Einsatz von Datenvirtualisierung auffindbar gemacht. So können sämtliche Entwickler auf die Daten zuzugreifen und sie wiederverwenden, egal, ob es dabei um operative Anwendungen, Webportale oder Back- und Front-Office-Systeme geht.

Cloud-Modernisierung beschleunigen

Wer damit beginnt, Cloud-Anwendungen zu benutzen und Legacy-Anwendungen in die Cloud zu migrieren, steht vor einem längerfristigen Projekt – und dabei besteht eine hohe Wahrscheinlichkeit, dass Daten stark fragmentiert werden. In der entstehenden Hybrid-Architektur verteilen sich Daten über Speicherplätze vor Ort und in der Cloud. Eine weitere Herausforderung besteht darin, Anwendungen über verschiedene Cloud-Plattform-Provider hinweg zu integrieren. Dabei gilt es, einen zentralen Zugriffspunkt für die gesamte Architektur zu etablieren und darüber hinaus für das nötige Maß an Sicherheit zu sorgen.

Die Abstraktionsmöglichkeiten mithilfe von Datenvirtualisierung vereinfachen den Weg in die Cloud: Datenvirtualisierung erleichtert die Migration der Legacy-Architektur in die Cloud und im Anschluss die Entwicklung der migrierten Legacy-Architektur zu moderneren Cloud-Analytics-Plattformen. So können Nutzer am Ende mehrere Analyseplattformen in der Cloud nutzen und ohne Probleme auf Daten in hybriden Architekturen zugreifen.

Arbeit mit Big Data vereinfachen

Datenvirtualisierung kann Unternehmen zudem auch bei der Erfassung großer Datenmengen unterstützen, indem sie den Zugriff auf Daten, die sich auf großen Datenplattformen befinden, erheblich vereinfacht: Datenvirtualisierung macht große Datenmengen für Nutzer ohne Kenntnisse im Big-Data-Bereich verfügbar, indem sie logische Data Lakes und ein leicht zugängliches und auffindbares logisches Modell bereitstellt.

Die Technologie ermöglicht die Auslagerung historischer Daten aus teurer Data-Warehouse-Infrastruktur auf kostengünstigeren Speicher, zum Beispiel Hadoop, und erlaubt dabei den nahtlosen Zugriff auf aktuelle und historische Daten. Darüber hinaus erlaubt sie die Anreicherung von Big Data mit anderen Daten, beispielsweise durch die Kombination von Predictive Analytics Output mit kontextabhängigen Unternehmensdaten.

Raus aus dem Fischglas

Die drei Beispiele zeigen, wie Datenvirtualisierung in unterschiedlichen Architekturen als einheitlicher Mechanismus für die Datenbereitstellung fungiert. Die Technologie vereinfacht den Zugriff auf fragmentierte Daten, die Modernisierung der IT-Infrastruktur und die Kontrolle über Big Data. Damit bietet Datenvirtualisierung ein Leistungsspektrum, auf das heute kein Unternehmen mehr verzichten kann und das weit über die Möglichkeiten des logischen Data Warehouse hinausgeht.

Thomas Niewel, Technical Sales Director DACH
Thomas Niewel
Technical Sales Director DACH, Denodo
Thomas Niewel berät Kunden bei der Architektur und Implementierung von Datenvirtualisierungsprojekten. Er verfügt über mehr als 20 Jahre Erfahrung als Berater in den Bereichen RDBMS Systeme, Systemarchitektur, Systemintegration, Systemmigration, sowie Systemtuning und Benchmarking. Seine Karriere begann er als Anwendungsentwickler bei den Continentalen Gummiwerken in Hannover nach Abschluss seines Studiums der allgemeinen Informatik.
GRID LIST
Big Data Trends 2020

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
CDO

Die wichtige Funktion des Chief Data Officer im digitalen Wandel

Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an…
Datamanagement

Datenqualität: Die Achillesferse der Digitalisierung schützen

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die…
Fragezeichen

Cloud-Server vs. NAS: Wann ist welche Methode sinnvoll?

Heutzutage hat die sichere Lagerung der eigenen Daten eine enorme Bedeutung. Da immer…
Digitale Erde

Die drei Bausteine moderner Datenanalyse

Unsere Welt besteht aus einer Vielfalt an Informationen - laut einer kürzlich erschienen…
KI Daten

KI braucht intelligentes Datenmanagement

Künstliche Intelligenz (KI) verändert nicht nur die Produktions- und Arbeitswelt in den…