Auf einen Streich

Zusammenführung von Echtzeit-Datenströmen und gespeicherten Daten

Um mit neuen Anwendungen Mehrwert zu generieren, sind Daten heute. Dabei müssen Unternehmen existierende Bestandsdaten mit Daten aus Echtzeit-Aktionen kombinieren – dies ist einer der Gründe, warum der Datenbank- und Analysemarkt auf fast 200 Milliarden US-Dollar geschätzt wird.

Die Wirtschaft erholt sich nach dem Schock der Pandemie aktuell schneller als gedacht. Im Zuge dessen stocken auch die Unternehmen ihre IT-Budgets wieder auf. Im kommenden Jahr werden diese voraussichtlich wieder das Niveau von 2019 erreichen, da die Initiativen zur Beschleunigung der digitalen Transformation in den vergangenen eineinhalb Jahren an Fahrt aufgenommen haben. Laut Statista wird erwartet, dass der Umsatz bei Unternehmenssoftware bis 2026 eine jährliche Wachstumsrate von 8,74% aufweist. Zu dieser Kategorie gehören auch Investitionen in Datenbanken sowie Lösungen und Werkzeuge für Bereiche wie Analytics und Business Intelligence. Momentane Schätzungen des Marktes in diesem Segment liegen bei mehr als 200 Milliarden US-Dollar. Es sieht also ganz danach aus, dass die beschleunigte digitale Transformation mögliche negativen Auswirkungen der Pandemie auf die IT-Ausgaben abzumildern vermag.

Anzeige

Die Wertschöpfung aus Daten ist eine wichtige Grundlage für die Verbesserung der Geschäftsergebnisse. Inzwischen sind hier zwei Arten von Informationen zu unterscheiden: Was passiert gerade und was war in der Vergangenheit. Beide sind wichtig. Es ist unerheblich, ob die oben genannte Wertschöpfung nun aus Echtzeit-Ereignissen (zum Beispiel Kunden, die mit ihrem iPhone im Internet surfen) oder aus historischen Datenquellen (vorhandene Kundendatensätze in Datenbanken) stammt. 

Im Zuge der Digitalisierung hat sich hier eine neue Kennzahl herauskristallisiert hat: die Echtzeit. Einem Bericht von Forrester Consulting zufolge glauben mehr als 80 % der Führungskräfte an die Notwendigkeit von Echtzeit-Entscheidungen auf der Grundlage sofortiger Einblicke in Ereignisse und Marktbedingungen. 

Prinzipiell entstehen alle neuen Daten in Echtzeit. Und genau in diesem Moment stellen sie einen einzigartigen Wert dar: Sie geben darüber Auskunft, was gerade passiert. Dieser Wert ist Augenblicke später bereits überholt, weil die Daten ihre zeitbezogene Relevanz verlieren. Ab einer gewissen Zeitspanne sind die Informationen sogar vollkommen wertlos. 

Und hier klafft leider eine große Lücke zwischen dem Wunsch nach Nutzung der Echtzeitdaten und der Realität. Mehr als zwei Drittel der von Forrester im Rahmen einer Studie befragten Führungskräfte gaben an, dass ihre Unternehmen nicht in der Lage sind, derart Daten-gestützte Erkenntnisse und Maßnahmen in Echtzeit zu gewinnen bzw. zu erarbeiten.

Daten-Tsunami überrollt die Unternehmen

Die Digitalisierung produziert eine riesige Menge an Echtzeitdaten. Sie strömen von Servern, Geräten, Sensoren und IoT-Geräten ein. Schätzungen zufolge fallen in den nächsten drei Jahren mehr Daten an als in den letzten 30 Jahren zusammen.

Führungskräfte haben ein großes Interesse daran, durch die Nutzung von Echtzeitdaten einen Mehrwert für ihr Unternehmen zu schaffen. Das ist allerdings einfacher gesagt als getan. Die meisten scheitern schon an der Überlastung mit immer neuen Daten. Eine Umfrage im Rahmen des Dell Technologies 2020 Digital Transformation Index  belegt, dass 70% der befragten Führungskräfte sagen, ihr Unternehmen würde mehr Daten erzeugen, als es analysieren oder verstehen könne.

Mit dieser Flut von Echtzeitdaten kommt eine riesige Herausforderung auf die Unternehmen zu, denn es entsteht eine neue Art von Datensilo. Die Verarbeitung von Echtzeitinformationen erfordert andere Technologien als die Verarbeitung gespeicherter Daten. Der Grund liegt im bereits erwähnten deutlichen Unterschied beider Typen. 

Das folgende Beispiel soll den Sachverhalt noch mal verdeutlichen: Was nützt es, zu wissen, dass ein bestimmter Kunde gerade online einen Artikel auf der Webseite angesehen hat, wenn dieses Ereignis nicht sofort mit dem Kontext des Profils und der Historie dieses einzelnen Kunden kombiniert werden kann? Wie kann das finanzielle Risiko einer gerade erfolgten Finanzmarkttransaktion eingeordnet werden, wenn sich die Performance-Historie der Transaktion nicht mit jener der beteiligten Akteure kombinieren lässt? Wenn die Ereignisdaten eines Fertigungssensors eine gewisse Abweichung zeigen, wie kann dann der Bedarf an Präventivmaßnahmen beurteilt werden, ohne die jüngste Wartungshistorie zu kennen?

Genau diese Kombination von Echtzeitdaten und gespeicherten Daten aus früheren Vorfällen mit einer intelligenten Datenanalyse ermöglicht es z.B. in der Produktion Anomalien vorherzusagen und Lösungen zu initiieren. So lassen sich Maschinenausfälle oder Materialausschuss vermeiden. Auch die frühzeitige Erkennung von Leckagen oder steigendem Stromverbrauch ermöglicht die Einsparung von Ressourcen und Energie. Mit Begriffen wie Predictive Maintenance und Dynamic Manufacturing sind genau diese Technologien gemeint, mit denen Kosten gesenkt werden können.

Die Welt der Daten hat sich nachhaltig verändert. Die dominierende Rolle nehmen jetzt Echtzeitdaten ein. Gleichzeitig bleiben die reichhaltigen, kontextbezogenen Datenspeicher bestehen. Diese Herausforderung ist aber auch eine neue Chance.  Die Veränderungen der Datenwelt bietet Unternehmen ein enormes Potenzial für die Schaffung wertvoller Geschäftsergebnisse – vorausgesetzt, die Daten werden richtig genutzt.

Kelly

Herrell

CEO

Hazelcast

Kelly Herrell  ist CEO bei Hazelcast. Während seiner beruflichen Laufbahn hat er bereits vier innovative Unternehmen von den Anfängen bis hin zur marktführenden Position geleitet und dabei ein breites Spektrum an Computer- und Netzwerktechnologien abgedeckt. Seit 2018 arbeitet er für Hazelcast, wo er dank seiner Erfahrung erfolgversprechende Innovationen in
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.