Anzeige

Maschinengenerierte Daten machen Big Data erst richtig interessant. Sie ermöglichen es unter anderem, die Anwendererfahrung zu verbessern, die IT-Stabilität zu erhöhen, Sicherheitsbedrohungen zu erkennen und sogar das Kundenverhalten zu analysieren. Doch dafür müssen die Informationen erst einmal gefunden und durchleuchtet werden. 

Operational Intelligence (OI) bringt Licht ins Dunkel

OI bietet in Verbindung mit maschinengenerierten Daten die Möglichkeit, genau zu verstehen, was in einzelnen Systemen der IT-Infrastruktur tatsächlich vor sich geht – und das in Echtzeit. So sind moderne Big-Data-Plattformen für OI in der Lage, täglich mehr als 100 Terabyte an Maschinendaten zu verarbeiten, die dann als Voraussetzung für fundierte Entscheidungen in unterschiedlichen Unternehmensabläufen dienen: Produkt-Manager können Applikationen und Services schneller am Markt einführen, IT-Verantwortliche die Verfügbarkeit und Performance interner IT-Lösungen verbessern, Sales-Teams wiederum erhalten die Fähigkeit, Dienstleistungen und Produkte dem Kundenverhalten auszurichten. Die Möglichkeiten für Geschäftsprozessoptimierungen sind schier endlos.

IT-Abläufe: OI in seinem Element

Eine ihrer großen Stärken spielt OI beispielsweise direkt für die IT selbst aus: Dort entstehen unzählige Informationen aus unterschiedlichsten IT-Segmenten, die sich für eine genaue Fehlersuche – etwa bei Performance-Problemen – eignen. Diese Informationen umfassen typischerweise Web-Infrastruktur-Protokolle, Netzwerkdaten, Anwendungsdiagnose oder Cloud-Service-Informationen. Schon kurz nach der Konsolidierung dieser Daten ist es möglich, Ursachenforschung zu betreiben und auf bestimmte Vorfälle, Ausfälle und andere Probleme zu reagieren. Überwachungsmechanismen und Alarme erlauben es, die gesamte IT-Infrastruktur inklusive Applikationen zu kontrollieren, indem bestimmte Bedingungen, Trends und komplexe Muster erkannt werden.  Mitdieser Echtzeit-Berichterstattung aus den „Maschinenräumen“ einer Organisation sind IT-Manager dann in der Lage, eine serviceorientierte Sicht auf ihre IT-Umgebung zu entwickeln. So lassen sich On-the-Fly-Berichte und Datenvisualisierungen nutzen, die einen Überblick über die Geschehnisse aus unterschiedlichen Perspektiven ermöglichen. Dazu gehören etwa Informationen darüber, wie Anwendungen, Server oder Gerätemit  geschäftskritischen IT-Servicesin Verbindung stehen.

Doch auch für spezifische Anforderungen in der Unternehmens-IT leistet OI einen entscheidenden Beitrag – etwa in Sachen Sicherheit. Mit der Analyse von Protokoll-, Binär- oder Kontextdaten ist es möglich, forensische Untersuchungen in unterschiedlichen Ebenen der Infrastruktur einzuleiten, um beispielsweise vor oder nach einem Cyber-Angriff nach bestimmten Mustern zu suchen. Damit sind IT-Verantwortliche in der Lage, ungewöhnliches Verhalten im Unternehmensnetz bereits frühzeitig zu erkennen und potenziellen Bedrohungen vorzubeugen, indem eine kontinuierliche Überwachung und -bewertung von Vorfällen inklusive Warnsystem implementiert werden kann.

Analyse von Geschäftsprozessen erlaubt fundierte Entscheidungen

Selbst klassische Abläufe im Kerngeschäfts eignen sich treffend für OI-Analysen in Verbindung mit Maschinendaten. Mit Hilfe von aussagekräftigen, konsolidierten und ausgewerteten Informationen aus den unterschiedlichsten Business-Bereichen kann die Geschäftsführung auf unvorhergesehene Abweichungen rasch reagieren. So erlauben es OI-Analysen beispielsweise, die Historie der Interaktionen mit Kunden zu untersuchen, um auf zunehmende Kundenbeschwerden zu reagieren oder einen Rückgang der E-Commerce-Geschäfte zu begründen. Auch in einem solchen Szenario ist es möglich, proaktive Alarme einzurichten und so die Kundenzufriedenheit langfristig zu stabilisieren.

OI-Plattformen: Herzstück für Geschäftsprognosen

Dreh- und Angelpunkt und wichtigsten Voraussetzung für die Optimierung von Geschäftsprozessen bilden spezielle OIPlattformen. Sie sammeln und indizieren zunächst Informationen aus den unterschiedlichsten Quellen, bevor sie fürdie Analyse aufbereitet werden können. Sie sollten in der Lage sein, sämtliche ITUmgebungen wie physische, virtuelle und sogar Cloud-Topologien und Datenquellen wie Netzwerk-Traffic, Web- Server, benutzerdefinierte Anwendungen oder Anwendungsserver einzubinden. Hinzu kommen Inhalte aus Hypervisor, GPS-Systemen, Börsen-Feeds und Sensoren sowie Social-Media-Daten und natürlich strukturierte Informationen aus den Datenbanken eines Unternehmens. Für die Einspeisung der Daten verfügen solche Plattformen üblicherweise über so genannte Forwarder, die sich direkt in den Datenquellen befinden.

Darüber hinaus lassen sich DevOps-, IoT- und andere Daten mit einer Applikationssschnittstelle (API) oder über den klassischen TCP-UDP-Netzwerk-Port integrieren. Wichtig dabei: Weil Daten in Echtzeit hinzugefügt werden, muss auch der jeweilige Zeitstempel extrahiert werden. Das ermöglicht es später, das Auftreten von Ereignissen einzugrenzen, zuzuordnen und zu bewerten. In der Folge lassen sich die auf Basis all der Daten konsolidierten Informationen durchsuchen und visualisieren, um Muster zu erkennen und Korrelationen zu anderen Ereignissen zu definieren.

Dafür enthalten OI-Plattformen spezielle Dashboards. Sie informieren visuell über bestimmte Vorgänge und Zusammenhänge in IT- und Geschäftsprozessen und zeigen Engpässe, Probleme oder neue Geschäftschancen auf. Möglich ist das hauptsächlich durch eine Ereigniskorrelation. Sie erlaubt es, Beziehungen zwischen scheinbar unzusammenhängenden Ereignissen in Daten aus verschiedenen Quellen zu finden. Dashboards wiederum können mehrere Diagramme, Ansichten, Berichte und wiederverwendbare Teilfenster enthalten. Hinzu kommt, dass sich Dashboards idealerweise schnell erstellen und für unterschiedliche Benutzer wie Führungskräfte, Business- oder Sicherheitsanalysten, Auditoren, Entwickler und Operations-Teams anpassen lassen müssen.

Zum typischen  Funktionsumfang von OI-Plattformen gehören nicht zuletzt auch die Möglichkeit, Berichte in Echtzeit zu generierenund weiterzugeben. Ebenso gehören umfangreiche Suchmechanismen, Benachrichtigungen und Alarme für kritische Echtzeit-Ereignisse, Skalierbarkeit und ausgeklügelte Zugriffs- und Benutzerauthentifizierungen zum wichtigen Funktionsumfang einer OI-Plattform.

Fazit

Anwendungen, Sensoren, Server und Clients generieren permanent Daten. Diese Maschinendaten können für Benutzer-Transaktionen, das Kundenverhalten, Sensor-Aktivitäten, Maschinenverhalten, Sicherheitsbedrohungen, betrügerische Aktivitäten und andere Maßnahmen verwendet werden. Für aussagekräftige Analysen und die anschließende Entscheidungsfindung eignen sich spezielle OI-Plattformen. Sie ermöglichen es, den Wert der verborgenen Informationen zu ermitteln, indem die unzähligen Informationen gesammelt, indexiert, durchsucht, analysiert und visualisiert werden. Damit stehen Unternehmen Echtzeit-Einblicke in die immer mehr digitalisierte Geschäftswelt zur Verfügung, die sich für die Entscheidungsfindung und somit Unternehmenssteuerung verwenden lassen.

Autor: Matthias Maier, Security Evangelist bei Splunk


Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Weitere Artikel

Datenmanagement

Ohne Daten läuft in der deutschen Wirtschaft kaum noch etwas

Daten werden für Unternehmen aller Branchen immer wichtiger. Für 85 Prozent der Unternehmen in Deutschland mit 50 oder mehr Beschäftigten hat die Datennutzung bereits heute eine sehr große oder eher große Bedeutung. Und sogar 91 Prozent sind davon überzeugt,…
Datenverwaltung

Unternehmen nutzen verfügbare Daten nicht

Seagate Technology, ein Anbieter von Datenmanagementlösungen, stellt seinen Bericht „Rethink Data: Bessere Nutzung von mehr Unternehmensdaten – vom Netzwerkrand bis hin zur Cloud“ vor. Der Bericht basiert auf den Ergebnissen einer von Seagate in Auftrag…
Big Data

Daten mehr Aufmerksamkeit schenken

In der von BARC (Business Application Research Center) veröffentlichten Studie “Leverage your data – a data strategy checklist for the journey to the data-driven enterprise”, nehmen die beiden Analysten Jacqueline Bloemen und Timm Grosser genau unter die…
Datenanalyse

Unternehmen haben mit Mängeln im Datenmanagement zu kämpfen

Rubrik, spezialisiert auf Cloud Data Management, hat die Ergebnisse einer IDC-White-Paper-Studie bekannt gegeben. Diese hat Rubrik in Auftrag gegeben, um das Ausmaß des Datenflutproblems zu bewerten und festzustellen, wie IT-Unternehmen darauf vorbereitet…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!