Anzeige

Datenstrom

Um mit neuen Anwendungen Mehrwert zu generieren, sind Daten heute. Dabei müssen Unternehmen existierende Bestandsdaten mit Daten aus Echtzeit-Aktionen kombinieren – dies ist einer der Gründe, warum der Datenbank- und Analysemarkt auf fast 200 Milliarden US-Dollar geschätzt wird.

Die Wirtschaft erholt sich nach dem Schock der Pandemie aktuell schneller als gedacht. Im Zuge dessen stocken auch die Unternehmen ihre IT-Budgets wieder auf. Im kommenden Jahr werden diese voraussichtlich wieder das Niveau von 2019 erreichen, da die Initiativen zur Beschleunigung der digitalen Transformation in den vergangenen eineinhalb Jahren an Fahrt aufgenommen haben. Laut Statista wird erwartet, dass der Umsatz bei Unternehmenssoftware bis 2026 eine jährliche Wachstumsrate von 8,74% aufweist. Zu dieser Kategorie gehören auch Investitionen in Datenbanken sowie Lösungen und Werkzeuge für Bereiche wie Analytics und Business Intelligence. Momentane Schätzungen des Marktes in diesem Segment liegen bei mehr als 200 Milliarden US-Dollar. Es sieht also ganz danach aus, dass die beschleunigte digitale Transformation mögliche negativen Auswirkungen der Pandemie auf die IT-Ausgaben abzumildern vermag.

Die Wertschöpfung aus Daten ist eine wichtige Grundlage für die Verbesserung der Geschäftsergebnisse. Inzwischen sind hier zwei Arten von Informationen zu unterscheiden: Was passiert gerade und was war in der Vergangenheit. Beide sind wichtig. Es ist unerheblich, ob die oben genannte Wertschöpfung nun aus Echtzeit-Ereignissen (zum Beispiel Kunden, die mit ihrem iPhone im Internet surfen) oder aus historischen Datenquellen (vorhandene Kundendatensätze in Datenbanken) stammt. 

Im Zuge der Digitalisierung hat sich hier eine neue Kennzahl herauskristallisiert hat: die Echtzeit. Einem Bericht von Forrester Consulting zufolge glauben mehr als 80 % der Führungskräfte an die Notwendigkeit von Echtzeit-Entscheidungen auf der Grundlage sofortiger Einblicke in Ereignisse und Marktbedingungen. 

Prinzipiell entstehen alle neuen Daten in Echtzeit. Und genau in diesem Moment stellen sie einen einzigartigen Wert dar: Sie geben darüber Auskunft, was gerade passiert. Dieser Wert ist Augenblicke später bereits überholt, weil die Daten ihre zeitbezogene Relevanz verlieren. Ab einer gewissen Zeitspanne sind die Informationen sogar vollkommen wertlos. 

Und hier klafft leider eine große Lücke zwischen dem Wunsch nach Nutzung der Echtzeitdaten und der Realität. Mehr als zwei Drittel der von Forrester im Rahmen einer Studie befragten Führungskräfte gaben an, dass ihre Unternehmen nicht in der Lage sind, derart Daten-gestützte Erkenntnisse und Maßnahmen in Echtzeit zu gewinnen bzw. zu erarbeiten.

Daten-Tsunami überrollt die Unternehmen

Die Digitalisierung produziert eine riesige Menge an Echtzeitdaten. Sie strömen von Servern, Geräten, Sensoren und IoT-Geräten ein. Schätzungen zufolge fallen in den nächsten drei Jahren mehr Daten an als in den letzten 30 Jahren zusammen.

Führungskräfte haben ein großes Interesse daran, durch die Nutzung von Echtzeitdaten einen Mehrwert für ihr Unternehmen zu schaffen. Das ist allerdings einfacher gesagt als getan. Die meisten scheitern schon an der Überlastung mit immer neuen Daten. Eine Umfrage im Rahmen des Dell Technologies 2020 Digital Transformation Index  belegt, dass 70% der befragten Führungskräfte sagen, ihr Unternehmen würde mehr Daten erzeugen, als es analysieren oder verstehen könne.

Mit dieser Flut von Echtzeitdaten kommt eine riesige Herausforderung auf die Unternehmen zu, denn es entsteht eine neue Art von Datensilo. Die Verarbeitung von Echtzeitinformationen erfordert andere Technologien als die Verarbeitung gespeicherter Daten. Der Grund liegt im bereits erwähnten deutlichen Unterschied beider Typen. 

Das folgende Beispiel soll den Sachverhalt noch mal verdeutlichen: Was nützt es, zu wissen, dass ein bestimmter Kunde gerade online einen Artikel auf der Webseite angesehen hat, wenn dieses Ereignis nicht sofort mit dem Kontext des Profils und der Historie dieses einzelnen Kunden kombiniert werden kann? Wie kann das finanzielle Risiko einer gerade erfolgten Finanzmarkttransaktion eingeordnet werden, wenn sich die Performance-Historie der Transaktion nicht mit jener der beteiligten Akteure kombinieren lässt? Wenn die Ereignisdaten eines Fertigungssensors eine gewisse Abweichung zeigen, wie kann dann der Bedarf an Präventivmaßnahmen beurteilt werden, ohne die jüngste Wartungshistorie zu kennen?

Genau diese Kombination von Echtzeitdaten und gespeicherten Daten aus früheren Vorfällen mit einer intelligenten Datenanalyse ermöglicht es z.B. in der Produktion Anomalien vorherzusagen und Lösungen zu initiieren. So lassen sich Maschinenausfälle oder Materialausschuss vermeiden. Auch die frühzeitige Erkennung von Leckagen oder steigendem Stromverbrauch ermöglicht die Einsparung von Ressourcen und Energie. Mit Begriffen wie Predictive Maintenance und Dynamic Manufacturing sind genau diese Technologien gemeint, mit denen Kosten gesenkt werden können.

Die Welt der Daten hat sich nachhaltig verändert. Die dominierende Rolle nehmen jetzt Echtzeitdaten ein. Gleichzeitig bleiben die reichhaltigen, kontextbezogenen Datenspeicher bestehen. Diese Herausforderung ist aber auch eine neue Chance.  Die Veränderungen der Datenwelt bietet Unternehmen ein enormes Potenzial für die Schaffung wertvoller Geschäftsergebnisse – vorausgesetzt, die Daten werden richtig genutzt.

Kelly Herrell, CEO
Kelly Herrell
CEO, Hazelcast
Kelly Herrell  ist CEO bei Hazelcast. Während seiner beruflichen Laufbahn hat er bereits vier innovative Unternehmen von den Anfängen bis hin zur marktführenden Position geleitet und dabei ein breites Spektrum an Computer- und Netzwerktechnologien abgedeckt. Seit 2018 arbeitet er für Hazelcast, wo er dank seiner Erfahrung erfolgversprechende Innovationen in die Infrastruktur der Kunden weltweit vorantreibt – wozu auch Open-Source-Modelle gehören. Zuvor war Kelly Herrell bei Brocade Communication. Das Unternehmen hatte Vyatta übernommen, das seinerseits Pionierarbeit für software-definierte Netzwerke leistete und das weltweit am meisten verbreitete Betriebssystem für Software-Netzwerke lieferte.

Artikel zu diesem Thema

Datenanalyse
Jul 02, 2021

Wie StoData Analytics: der Zusammenhang von Speicher und Analytik

Wenn sich ein Unternehmen noch in der Erkundungsphase mit Big Data befindet, ist es an…
Data Fabric
Jun 09, 2021

Datensilos adé mit der Smart Data Fabric

Die Überwindung von Datensilos gilt als eine der entscheidenen Herausforderungen, wenn es…
Datenfluss
Nov 03, 2020

Daten sind das Öl unserer Zeit

Öl ist seit Mitte der 50er Jahre das Lebenselixier der Industrienationen, hält es doch…

Weitere Artikel

Datenanalyse

Wettbewerbsnachteile wegen fehlender Datenkompetenzen

Fehlende Datenkompetenzen in der Breite der Belegschaft werden zu einem zentralen Bremser für die digitale Transformation deutscher Unternehmen. So lautet ein Ergebnis einer repräsentativen Umfrage* unter mehr als 1.000 Mitarbeiterinnen und Mitarbeitern, die…
Datenmanagement

Datenmanagement: Befähigte Anwender:innen treiben Investitionen voran

Das Analystenhaus BARC präsentiert "The Data Management Survey 22". Die Studie hat in ihrer dritten jährlichen Ausgabe 1.101 Fachkräfte zur Auswahl und Nutzung von Datenmanagement-Werkzeugen befragt. Auszüge der englischsprachigen Studie veröffentlicht BARC…
Analyse

Neue Ausgabe des BARC Score Analytics for Business Users

Das Analystenhaus BARC (Business Application Research Center) präsentiert den BARC Score Analytics for Business Users. In seiner zweiten Ausgabe bewertet und vergleicht der BARC Score 16 global marktrelevante Hersteller von Self-Service Analytics Plattformen.

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.