IT-Sicherheit in Produktion und Technik
12.09.17 - 13.09.17
In Berlin

Be CIO: IT Management im digitalen Wandel
13.09.17 - 13.09.17
In Köln

IBC 2017
14.09.17 - 18.09.17
In Amsterdam

Orbit IT-Forum: Auf dem Weg zum Arbeitsplatz der Zukunft
27.09.17 - 27.09.17
In Leverkusen

it-sa 2017
10.10.17 - 12.10.17
In Nürnberg

Big DataLaut eines TDWI-Berichts ist es in den meisten Unternehmen Zeit für die Modernisierung der Data-Warehouse-Lösung.

Die Gründe dafür lassen sich in vier Kategorien einteilen:

  1. Unternehmen wollen echte Werte aus Big Data generieren
  2. Wir sind endgültig im Analytics-Zeitalter angekommen
  3. Es gibt neue Anforderungen an Echtzeitdaten
  4. Open-Source-Software ist mittlerweile Teil des Data Warehouse

Die Bereithaltung, zentrale, einheitliche Ablage und Echtzeit-Auswertung gerade auch von immer größer werdenden Datenmengen ist also Aufgabe einer „modernen“ Data-Warehouse-Lösung. Zudem gilt es, heterogene Daten zu integrieren und zu validieren – möglichst schnell und ohne Performance-Einbußen.

Ziel ist es darüber hinaus, Daten auch so zu analysieren und zu nutzen, dass sie sich in gesteigerter Produktivität, mehr Umsatz und sinkenden Kosten niederschlagen.

Daten zu jeder Zeit, an jedem Ort, für jeden zugänglich
 

Trotz einer veränderten Nutzerstruktur – neben IT-Leitern und Geschäftsführern interessieren sich vermehrt auch Fachabteilungen für das Thema – hat sich an den Kernaufgaben eines Data Warehouse in den letzten zwei Jahrzehnten wenig geändert: Es bereitet Daten auf, legt diese zentral sowie zielgerichtet ab und erzeugt Statistiken. Diese müssen dann nicht nur rund um die Uhr, sondern auch weltweit zur Verfügung stehen.

Hadoop und MapReduce: Innovation aus unstrukturierten Daten
 

Data WarehouseEine Neuerung ist der Einsatz von Frameworks wie Hadoop, das auf Java und Googles MapReduce-Algorithmus basiert und die Verarbeitung unstrukturierter Daten ermöglicht. Mit MapReduce können Anwender rechenintensive Aufgaben mit Dateimengen im Petabyte-Bereich auf viele Rechner verteilen und parallel bearbeiten lassen.

Der Markt für solche Frameworks wächst. Eine kürzlich veröffentlichte Studie ergab, dass 60 Prozent der Befragten voraussichtlich schon nächstes Jahr Hadoop einsetzen werden. Ein Grund dafür ist das Innovationspotenzial, das sich fast alle der Teilnehmer davon erhoffen. Bereits heute werden Workloads, bei denen sich die Einsatzmöglichkeiten beider Systeme überschneiden, von traditionellen Data-Warehouse-Systemen zu Hadoop migriert.

Doch werden derartige Technologien das Data Warehouse nicht vollkommen verdrängen. „Es handelt sich dabei nicht um einen Ersatz für das klassische Data Warehouse, sondern vielmehr um eine Ergänzung, die es ermöglicht, auch große Mengen an unstrukturierten Daten zu speichern und zu verarbeiten“, erklärt Markus Ruf, Geschäftsführer der mip GmbH. „Hadoop wird diejenigen Workloads übernehmen, für die es besser geeignet ist. Die Zielgruppe sind hier allerdings ganz klar Experten, die diese Daten dann auswerten können.“

http://mip.de/data-warehouse/

www.mip.de

Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet