Anzeige

Anzeige

VERANSTALTUNGEN

Bitkom | Digital Health Conference
26.11.19 - 26.11.19
In dbb Forum Berlin

IT & Information Security
26.11.19 - 27.11.19
In Titanic Chaussee Hotel, Berlin

Integriertes IT Demand und Portfolio Management
02.12.19 - 04.12.19
In Sofitel Berlin Kurfürstendamm, Germany

IT-Tage 2019
09.12.19 - 12.12.19
In Frankfurt

eoSearchSummit
06.02.20 - 06.02.20
In Würzburg, Congress Centrum

Anzeige

Anzeige

BigData Concept Shutterstock 473365606 500

Vielfach ist das Vorurteil verbreitet, dass Big-Data-Technologien mit hohen Kosten verbunden und nur für große Unternehmen geeignet sind. Eine Fehleinschätzung: Auch der Mittelstand kann unter Beachtung einiger Best Practices kostengünstig von Big Data profitieren.

Viele mittelständische Unternehmen vertreten nach wie vor die Auffassung, dass sie für Big-Data-Projekte zu klein sind. Dabei unterschätzen sie oftmals die Mehrwerte, die erfolgreiche Projekte generieren. Diese Mehrwerte reichen von der Identifizierung von Optimierungspotenzialen und Unterstützung strategischer Management- Entscheidungen über die agile Reaktion auf Marktveränderungen bis hin zur Gewinnung von Wettbewerbsvorteilen.

Ein Big-Data-Projekt sollte die IT mit der Durchführung eines Anforderungs- Workshops starten – und zwischen fachlichem und technischem Teil differenzieren. Der fachliche Teil umfasst die Vision und den Weg dorthin: Im Mittelpunkt steht dabei die Entscheidung, welche Daten wie genutzt werden können. Da bei Big-Data-Projekten eine iterative Vorgehensweise prinzipiell die bessere ist – gemäß dem Motto „Klein anfangen, groß wachsen“ –, sollten zunächst ein oder zwei konkrete Anwendungsszenarien definiert werden. Die Charakteristika der ersten Szenarien sollten eine geringe Komplexität und schnelle Realisierbarkeit sein. Anhand dieser Anwendungsfälle kann das Unternehmen dann schnell überprüfen, ob und wie es durch Big Data in kurzer Zeit einen realen Mehrwert für das Business generieren kann.

Zu klärende Fragen

Der Einsatz einer neuen Big-Data- Technologie bedeutet Komplexität und Veränderung, die im technischen Teil thematisiert werden müssen. Zu klärende Fragen lauten etwa: Wie sieht die aktuelle Infrastruktur aus? Welche Systeme müssen angebunden werden, um an die Daten zu gelangen, und wie sieht die Umsetzung mit den neuen Technologien aus? Welche Richtlinien und Vorgaben gibt es hinsichtlich Verfügbarkeit, Security und Compliance? Ergebnis des Workshops sollte ein Konzeptpapier für das initiale Projekt und die Infrastruktur sein.

Nach dem Workshop erfolgt der Aufbau der Plattform nach den ermittelten Vorgaben und eine Detailanalyse der für den Anwendungsfall notwendigen Daten, um den Data Ingest und das Data Processing entsprechend vorzubereiten. Die Realisierung der Data-Ingest- Kette umfasst das zuverlässige Laden der Daten und gegebenenfalls ein Pre- Processing. Pre-Processing kann zum Beispiel das Anreichern mit Zeitstempel und Herkunft oder Bereinigen von Daten umfassen, das heißt das Entfernen nicht benötigter Teile oder Schnellkorrekturen. Nachdem die Daten im Data Hub verfügbar sind, werden die Algorithmen zum Processing und der Analyse implementiert und die Ergebnisse bewertet.

Nicht zuletzt kann die Big-Data-Lösung an Dashboards für Visualisierungen, an vorhandene Business- Intelligence-Systeme oder an andere Zielsysteme angebunden werden. Der Trend hin zu Big-Data-Plattformen wird nicht aufzuhalten sein. Selbst mittelständische Unternehmen werden ihn nicht ignorieren können. Schließlich sind Daten und Informationen die „neue Währung“. Das früher vielleicht richtige Argument, dass die Lösungen zu teuer sind, gilt zudem inzwischen nicht mehr.

Autor: Christian Löhnert, Sales Engineer für Big Data, Consol Software GmbH
 

GRID LIST
Big Data Trends 2020

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
CDO

Die wichtige Funktion des Chief Data Officer im digitalen Wandel

Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an…
Datamanagement

Datenqualität: Die Achillesferse der Digitalisierung schützen

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die…
Datenkugel

Alle Daten im Griff mit Datenvirtualisierung

Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend…
Fragezeichen

Cloud-Server vs. NAS: Wann ist welche Methode sinnvoll?

Heutzutage hat die sichere Lagerung der eigenen Daten eine enorme Bedeutung. Da immer…
Digitale Erde

Die drei Bausteine moderner Datenanalyse

Unsere Welt besteht aus einer Vielfalt an Informationen - laut einer kürzlich erschienen…