Next Dimension Big Data – Synchronizität von Information und Aktion​​​​​​​

Der Begriff Big Data bezeichnet in erster Linie Daten, welche beispielsweise zu groß, zu komplex, zu schnelllebig oder zu schwach in ihrer Datenstruktur sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten. Um Big Data für Unternehmenszwecke zu nutzen, existieren diverse Systeme in der IT.

Dabei werden mit leistungsfähiger Hardware und Software Daten ausgewertet, korreliert und miteinander verglichen, um zum Beispiel geschäftsstrategische Entscheidungen zu begründen oder zu untermauern. Bis heute sind jedoch die Prozesse der Informationsaufbereitung und die daraus folgende Aktion meist zeitversetzt. Allerdings ändern sich die Anforderungen. Immer häufiger werden noch größere Datenmengen für die Auswertung herangezogen und es entwickelt sich gleichzeitig der Trend, dass die daraus gewonnenen Informationen möglichst zeitlich synchron zur Aktion zur Verfügung stehen. Hierfür werden besondere Systeme und Infrastrukturen benötigt, welche die klassische IT weit überfordern. Wie „Next Dimension Big Data“ realisierbar ist, erklärt Robert Meiners, Team Lead PreSales Germany bei MTI Technology.

Anzeige

„Daten sind das moderne Öl“ lautet eine der Analogien, die mit Big Data landläufig verbunden wird. Genau genommen stimmt diese Analogie nicht ganz. Denn wer kann schon etwas mit Rohöl anfangen? Denn erst die Erzeugnisse der Petrochemie wie Benzin oder Kunststoffe sind die wirklich nützlichen Produkte. Genauso verhält es sich auch mit Big Data. Mit den Massen an Daten kann erst einmal niemand etwas anfangen. Erst die Informationen, die sich aus der Verarbeitung der Daten ergeben, sind das wertvolle Gut.

Big Data wird heute in einigen Unternehmen als Gewinn bringende Strategie mit Hilfe von leistungsfähigen Systemen eingesetzt. Beispiele hierfür sind in der Produktion zu finden. Durch die Auswertung von Maschinendaten lassen sich Prozesse optimieren und besser aufeinander abstimmen. Da jedoch in einem produzierenden Unternehmen nicht nur Maschinen, sondern auch Menschen am Produktionsprozess beteiligt sind, müssen auch diese „einkalkuliert“ werden. Mithilfe von Big-Data-Anwendungen lassen sich unterschiedlichste Daten so miteinander verbinden und zu Informationen zusammenführen, dass diese eine Optimierung im Produktionsprozess möglich machen. 

Die nächste Stufe von Big Data

Während ein Großteil der Unternehmen noch damit beschäftigt ist, die Vorteile des klassischen Business Intelligence mit entsprechenden Tools und Technologien zu realisieren, sind andere bereits einen Schritt weiter. Mit Next Dimension Big Data werden Unternehmen und Organisationen den entscheidenden Sprung ins nächste digitale Zeitalter machen. Hierbei werden nicht nur wesentlich größere Datenpools für die Informationsgewinnung herangezogen. Der entscheidende Unterschied zum bisherigen Big Data besteht darin, dass die Informationen in Echtzeit mit der gewünschten Aktion zur Verfügung stehen. Zwei Beispiele für heutiges Big Data und zukünftiges Next Dimension Big Data: Künstliche Intelligenz (KI) lernt aus den unterschiedlichsten Daten eines Fahrzeugs und weiteren Diensten, wie sie auf bestimmte Verkehrssituationen zu reagieren hat.

Dies ist beispielsweise wichtig, um eine optimale Routenplanung zu berechnen. Dabei erfolgt eine kontinuierliche Neuberechnung in definierten Zeitzyklen, um die dynamische Routenplanung mit Informationen zu aktualisieren. Hierbei handelt es sich um keine kritische Anwendung. Ein gewisser Zeitversatz von Informationsupdates kann schlimmstenfalls dazu führen, dass der Fahrer beispielsweise in einen Stau gerät. Ganz anders im Beispiel zwei: Wenn autonomes Fahren Realität werden soll, existiert eine Fülle an kritischen Anwendungen, welche keinen Zeitversatz erlauben. Wenn sich zum Beispiel direkt vor einem autonomen Fahrzeug ein Unfall ereignet, müssen die Informationen auf der Stelle und in Echtzeit beziehungsweise synchron zur Aktion zur Verfügung stehen. Nur so hat das Fahrzeug eine Chance, rechtzeitig auszuweichen oder zu bremsen. 

Dieses Szenario lässt sich auf vielerlei Anwendungen in geschäftskritischen Umgebungen übertragen, etwa auf chemische Produktionsprozesse. Hier kommt eine neue Technologie für Next Dimension Big Data, bei der Information und Aktion synchron sind, ins Spiel. 

Next Dimension Big Data mit frei skalierbaren In-Memory-Lösungen

Unternehmen, die bereits heute hohe Anforderungen an Big Data haben, setzen zumeist auf Multiple-Core-Server-Systeme, mit denen große Datenbanken verarbeitet werden können. Denn bei Big Data ist weniger die Leistungsfähigkeit des zentralen Rechners die begrenzende Komponente, sondern der Speicher, in den die Datenbanken geladen werden müssen. Nicht selten haben Datenbanken in Big-Data-Umgebungen Größen von sechs bis zehn Terabyte (TB) oder darüber hinaus. Server mit multiplen Kernen können heute Datenbanken mit bis zu zwölf Terabyte (Betriebssystem etc. eingerechnet) verarbeiten.

Allerdings gehören solche Server zur Extraklasse, für die man tief in die Tasche greifen muss. Ein 12 TB System schlägt mit knapp einer Million Dollar zu Buche. Dabei bleibt es selten bei einem Server. Unternehmen, die mit derart umfassenden Datenmengen arbeiten, haben meist mehrere Datenbanken und es muss natürlich auch für die nötige Redundanz der kritischen Systeme gesorgt werden. So kommen leicht mehrere Millionen Dollar zusammen, um Big Data mit großen Datenbanken zu realisieren. Und trotz der enormen Budgetanforderungen bleiben die Systeme sperrig in der Anwendung und schlecht skalierbar und limitieren praktisch die Möglichkeiten. Obendrein sind sie in der Regel nur teilweise ausgelastet und dadurch unwirtschaftlich.

Da sich die Rahmenbedingungen in der Wirtschaft ständig weiterentwickeln, besteht die Notwendigkeit solcher Hochleistungsumgebungen nicht nur bei Konzernen oder bei Forschungsinstituten. Immer mehr Firmen und auch größere mittelständische Unternehmen müssen mit dem Umgang von umfangreichen Datenmengen und -banken kalkulieren. Der Grund dafür ist, dass Datenbanken nicht linear wachsen, sondern sprunghaft. Zwar steigen die Datenmengen kontinuierlich an, der Hauptgrund für den sprunghaften Anstieg der Datenbankgrößen liegt jedoch in der Konsolidierung von bisher getrennten Datenbanken. Ein gutes Beispiel ist die Zusammenführung unterschiedlicher Systeme in die zentrale Datenbank von SAP HANA. Schnell ist man jenseits der Zwei-Terabyte-Grenze und benötigt Multi-Core-Server – oder eine neue Technologie mit Möglichkeit zu frei skalierbaren In-Memory-Ressourcen.

Bei hoch-performanten und frei skalierbaren In-Memory-Lösungen wird auf die teuren Multi-Core-Server verzichtet. Stattdessen wird über eine neuartige Technologie leistungsfähiges Cluster geschaffen. Dabei werden viele Standard-Computer beziehungsweise Knoten über nur einen speziell dafür entwickelten Hypervisor zu einem System zusammengefasst. Diese Technologie bietet gleich mehrere Vorteile gegenüber Multi-Core Servern: Erstens besteht theoretische keine physische Grenze bei der Skalierung. Denkbar ist die Verarbeitung von Datenbanken die weit über die bisherige Beschränkung von 12 TB hinausgehen. Die Skalierung mit beliebig vielen Knoten, die zur VM (Virtual Machine) hinzugefügt werden, bietet weitaus mehr. Sie schafft zudem einen enormen Gewinn an Computing-Leistung, da mit jedem Konto auch die Rechenleistung erhöht wird. Damit nicht genug.

Die Cluster-Technologie hat auch erhebliche Auswirkungen auf Verfügbarkeit und Sicherheit. Fällt ein Multi-Core-Server aus, wird die Last von einem redundanten System übernommen, das dann an seiner maximalen Leistungsgrenze arbeitet. Dies stellt für kritische Anwendungen eine kaum tragbare Situation dar. Fällt im Gegensatz dazu in einem In-Memory-Cluster-System einer der Standard-PCs aus, wird dies das Gesamtsystem kaum beeindrucken. Hinzu kommt, dass ein Standard PC sehr schnell durch einen neuen ausgewechselt werden kann, was bei den Multi-Core-Systemen kaum oder nicht möglich ist. 

Der vielleicht wichtigste Vorteil gegenüber den Multi-Core-Systemen ist die Resilienz von großen In-Memory-Lösungen. Resilienz hilft, Katastrophen zu vermeiden und das System kontinuierlich zu optimieren. Zusammengefasst beschreibt Resilienz die Fähigkeit eines Systems, in zeitlich vertretbarer und effizienter Art und Weise Gefahren eigenständig zu widerstehen und zu absorbieren, sich an Änderungen der Gefahrenlage anzupassen und sich von deren Auswirkungen selbstständig zu erholen.

Mit In-Memory-Lösungen, welche die Leistung vieler Computer in nur einer virtuellen Maschine vereinen, ist erstmals eine Technologie geschaffen, welche nicht nur Konzernen mit viel Budget massives Big Data ermöglicht. Die nächste Stufe von Big Data kann jetzt Einzug in jedes Unternehmen halten und damit einen wesentlichen Beitrag zum Fortschritt unterschiedlichster Industriebereiche liefern.

Robert

Meiners

MTI Technology -

Team Lead PreSales Germany

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.