SAP SECURITY 2017
22.11.17 - 22.11.17
In Walldorf, Leonardo Hotel

Cloud Expo Europe
28.11.17 - 29.11.17
In Frankfurt

Data Centre World
28.11.17 - 29.11.17
In Frankfurt

IT-Tage 2017
11.12.17 - 14.12.17
In Frankfurt, Messe Kap Europa

Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum


AnalytikAnalytische Datenbanken sind darauf ausgelegt, riesige Bestände strukturierter Daten bei gleichzeitig hoher Anzahl von Abfragen durch viele bis sehr viele Nutzer in Sekundenschnelle zu analysieren. Aber erst heute finden sie wirkliche Beachtung, denn die vier IT-Megatrends (Mobile, Cloud, Social, Big Data) sind miteinander vernetzt und treiben so den Bedarf an analytischen Technologien wie analytischen Datenbanken. 

Damit werden analytische Datenbanken, die es schon seit rund 20 Jahren gibt, zu Mainstream-Produkten. Antworten auf die Fragen, warum das so ist und was Strategien, Einsatzszenarien, Nutzen und Roadmap von analytischen Datenbanken im Unternehmen sind, finden Sie in diesem Strategic Bulletin.

Bulletin AnalytischeDB Titel 165

 

 

Strategic Bulletin 

Analytische Datenbanken
Trends in Data Warehousing und Analytik
 
Autor:  Dr. Wolfgang Martin
März 2013, 36 Seiten, PDF 1,7 MB, kostenlos
 
 
 
 

Analytische Datenbanken – Definition und Treiber

 
Ein Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller Unternehmensdaten) und poly-strukturierter Daten (die machen rund 80% aller Unternehmensdaten aus) wie Dokumente, Verträge, Protokolle, E-Mail, Podcasts, Videos end andere. Eine Flut von Daten wartet bekanntlich im Web auf uns. Und noch mehr Daten liefert und das Internet der Dinge: Hier konvergieren Internet und die reale Welt. Nicht nur mobile Telefone, Smartphones und Tablets gehören hier dazu, sondern Geräte aller Art wie Sensoren, Smart Meter, Home Entertainment bis hin zu selbstfahrenden Autos. Das alles fasst man heute unter dem Begriff Big Data zusammen.
 
Es sind Daten aller Art über Konsum, Verhalten und Vorlieben, Orte und Bewegungen, Gesundheitszustand und viele andere Dinge. Analytik wird deshalb immer wichtiger für Unternehmen in allen Branchen, denn der Einsatz von Analytik schafft Wettbewerbsvorteile und vermeidet Risiken durch ein besseres und tieferes Wissen über Markt und Kunden. Analytik treibt daher auch den Einsatz innovativer Technologien, um diese Petabytes, sogar Exabytes von Daten auswerten zu können, da durch die schiere Menge an Daten die bisher im Markt dominierenden relationalen Datenbanksysteme an ihre Grenzen stoßen: Es etablieren sich so „Analytische Datenbanken“ und „NoSQL-Datenhaltungssysteme“, die innovative Algorithmen zum Zugriff- und Speicher-Management mit innovativen Ansätzen wie Spalten-Orientierung und innovativer Hardware-Technologie wie In-Memory-Verarbeitung miteinander verbinden.
 

Technologien analytischer Datenbanken

 
In Folge dieser Datenflut braucht man für Analytik neue Technologien, die die Grenzen traditioneller relationaler Datenhaltung überwinden. Relationale Datenhaltungssysteme waren auf Transaktionsverarbeitung und -Sicherheit ausgerichtet. Analytische Datenbanken sind konzipiert für ein schnelles Lesen, wobei aber gemäß Brewers CAP-Theorem Kompromisse mit der Sicherheit und Zuverlässigkeit von Transaktionsverarbeitung gemacht werden müssen. 
 
Die Methoden und Technologien, mit denen man ein schnelles Lesen erreichen kann sind vielfältig. In der Tat setzt man bei den verschiedenen analytischen Datenbanken auch verschiedene dieser Methoden und Technologien ein, die sich auch miteinander kombinieren lassen: Spaltenorientierung, Kompression, Parallelisierung, In-Memory-Verarbeitung sowie Bündelungen von Hardware und Software („Data Appliances“).
 

Analytische Datenbanken – Nutzen

 
Das erlaubt einerseits Analytik in Echtzeit: Große, sogar sehr große Datenmengen können im Sekundenbereich analysiert werden. Früher haben solche Analysen Stunden bis hin zu Tagen benötigt. Andererseits wird so auch Echtzeitanalytik ermöglicht. So werden operative Prozesse im Unternehmen wie Kundeninteraktionen, Produktion, Logistik etc. jetzt in Echtzeit („online“) steuerbar. Mittels operativer Kennzahlen erreicht man Automation, also schnelleren Durchsatz, weniger Fehler und bessere, individualisierte Prozesse. Hierzu sind insbesondere In-Memory Datenbanken geeignet, die analytische und transaktionale Daten gemeinsam verwalten.
 
So lösen analytische Datenbanken die Probleme, mit denen die Kunden heute in der Analytik mit großen und sehr großen Datenmengen kämpfen: Performance, Skalierbarkeit und Kosten. Die Vorteile sind: Information ist flexibler abrufbar und steht bis zu 100mal schneller oder sogar noch schneller zur Verfügung. Die Nutzerzufriedenheit erhöht sich signifikant aufgrund des schnelleren und flexibleren Zugriffs auf Information. Es können jetzt Daten analysiert werden, die vorher ohne Nutzen, aber mit Kosten gespeichert wurden. Das unterstützt und schafft bessere Entscheidungen. Und schließlich wird die IT entlastet, da analytische Datenbanken hoch automatisiert sind und ein spezielles Wissen über Datenbankdesign und Tuning deutlich weniger gefragt ist.
 

Analytische Datenbanken – Quo Vadis

 
Natürlich darf man nicht die Kritik an Analytik vernachlässigen, denn ein mehr an Information bedeutet nicht unbedingt gleichzeitig bessere Information. Auch macht die Quellenvielfalt Probleme, was die Vergleichbarkeit der Daten angeht, denn unterschiedliche Quellen erzeugen durchaus auch Daten in unterschiedlicher Qualität und Beschaffenheit. Für den Statistiker erhebt sich dann auch noch die Frage, ob und wie Information aus dem Big Data überhaupt repräsentativ sein kann.
 
Es gibt noch ein weiteres Problem: Um Analytik anwenden und verstehen zu können, braucht man analytische geschulte Manager und Mitarbeiter. Tom Davenport [3] geht sogar so weit, dass er im Fehlen von ausreichend analytisch geschulten Mitarbeitern einen der Gründe für die anhaltende Finanz- und Schuldenkrise sieht: Alle Finanz- und Handelssysteme sind automatisiert und analytisch auf dem höchsten Stand, aber es fehlten die Mitarbeiter, die in der Lage waren (und sind), all die Metriken und analytischen Ergebnisse und Vorhersagen zu verfolgen, zu interpretieren und dem Management richtig zu erklären. In der Big Data-Analytik fehlt es ebenfalls an ausreichend geschulten Mitarbeitern: Data Scientists sind heute im Markt nur schwer zu finden. Hier ist noch eine große Aufgabe zu lösen, die uns noch einige Zeit beschäftigen wird.
 

 

GRID LIST
Sharepoint

SharePoint On-Premises oder in der Office 365 Cloud?

SharePoint On-Premises oder in der Office 365 Cloud? Dieses Whitepaper bietet Ihnen…
Whitepaper: Visuelles und flexibles Projektmanagement

Ansatz für visuelles und flexibles Projektmanagement | Whitepaper

Das Whitepaper beschreibt eine softwaregestützte Methode, die mit Hilfe von…
Dateiübertragung nach der DSGVO

Dateiübertragung und die DSGVO | Whitepaper

Externe Datenübertragungen von personenbezogenen Daten erfordern in der…
ERP-Software: 10 wesentliche Faktoren für die Auswahl

ERP-Software: 10 wesentliche Faktoren für die Auswahl | Whitepaper

Ein ERP-System sollte die Erschließung neuer Märkte, die Zusammenarbeit mit neuen…
SAP

SAP-Lizenzvermessung ohne Schrecken | Whitepaper

Alle Jahre wieder kündigt sich SAP zur Lizenzvermessung an. Aber wie lassen sich…
Projekte und Wissen steuern

Projekte und Wissen steuern mit MindManager und SharePoint | Whitepaper

Dieses Whitepaper stellt zwei der wesentlichen Anwendungsbereiche heraus, bei denen der…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet