PM CHALLENGE IlluMinate: Communication
29.06.17 - 29.06.17
In München, SkyLounge

DIGILITY - Augmented und Virtual Reality
05.07.17 - 06.07.17
In Köln

IT-Sicherheit in Produktion und Technik
12.09.17 - 13.09.17
In Berlin

Be CIO: IT Management im digitalen Wandel
13.09.17 - 13.09.17
In Köln

it-sa 2017
10.10.17 - 12.10.17
In Nürnberg

TrendsInternet of Things (IoT) war lange vor allem ein Schlagwort für visionäre Zukunftstechnologie, die jedoch im Alltag noch nicht viel Anwendung fand. Dass sich dies gerade ändert, kann man an ersten Projekten und Produkten rund um Smart City, Smart Home, Connected Car und Industrie 4.0 deutlich erkennen. 

Auch auf der diesjährigen CES zeigte sich diese Entwicklung, vor allem in den Bereichen Augmented beziehungsweise Virtual Reality, die in immer mehr Anwendungen Realität werden. In der IT setzt sich zudem die Cloud als Infrastruktur immer mehr durch und DevOps, die IT-Operations neu definieren, kommen verstärkt zum Einsatz. „Gerade in einer derartigen Phase ist eine umfassende Kontrolle und Überwachung der IT-Infrastruktur und -Prozesse zwingend erforderlich“, weiß Tobias Dreyschultze, Senior Performance Engineer bei Catchpoint Systems. Er kennt die fünf Trends, die sich aktuell im Performance- und Verfügbarkeits-Monitoring abzeichnen.

IoT im Auge behalten

„Aktuell lässt sich beobachten, wie Nutzer Smart Devices mit IoT-Anwendungen mehr und mehr in ihren Alltag integrieren. Von tragbaren Geräten bis hin zur Smart-Home-Installation für Zuhause: Entwickler in der IT-Industrie entdecken ständig neue Anwendungsgebiete – nicht nur für den Endverbraucher, sondern in einem noch viel stärkeren Ausmaß auch für die Industrie. Mit neuen Sensoren, einer Vernetzung der Produktionsmaschinen und gesteigerter Rechenleistung ist es möglich, Maschinendaten zu erfassen, zu analysieren und bessere Erkenntnisse aus ihnen zu schöpfen“, so Dreyschultze. „Diese Entwicklung bietet große Vorteile für Unternehmen, führt jedoch auch zu Fragen nach Messbarkeit und Zuverlässigkeit. Connected Technology erfordert konstantes Monitoring, um das Funktionieren von Smart Devices ohne Fehler oder Verbindungsprobleme zu gewährleisten.“

Monitoring Tools müssen hierfür stets aktuell sein und in Echtzeit Daten liefern, um den komplexen Netzwerken gerecht werden zu können. IoT-Geräte benutzen zahlreiche Sensoren, um Daten zu sammeln, die zu riesigen Datenspeichern geleitet werden, was eine hohe Bandbreite bedingt. Monitoring Tools sollten beispielsweise Fehler unmittelbar erkennen und Administratoren alarmieren können, sobald Anomalien bei der Ressourcenauslastung auftreten, die diese Verbindung gefährden könnten. Das ganze Potenzial von IoT kann nur dann ausgeschöpft werden, wenn durchgehend die richtigen Programme zum Einsatz kommen, um mögliche Ursachen für Verzögerungen, Ausfälle oder Fehler zu überwachen, zu analysieren und Maßnahmen anzuwenden. Misst man diesem Punkt nicht genug Bedeutung bei, wird das zu einem großen Hindernis beim weiteren Vormarsch von IoT werden.

Datenanalysen: tiefgehend und vorhersagend

Anwendungen und ihre Verbindungen werden immer komplexer und vereinen immer mehr unterschiedliche Komponenten wie CDN Provider, DNS Provider, 3rd Party Provider und vieles mehr. Jede dieser Komponenten ist notwendig für das digitale Gesamterlebnis. Ein Fehler bei nur einer dieser Komponenten kann die gesamte Struktur und letztendlich das Unternehmen beeinträchtigen. Moderne Monitoring Tools generieren Gigabyte um Gigabyte an Monitoring-Daten. Die Fehlersuche innerhalb dieser Daten kann sehr aufwändig sein und um Unregelmäßigkeiten zu finden, muss der gesamte verfügbare Datensatz in Echtzeit untersucht werden können.

Aktuelle Monitoring Tools können bereits vergleichbare Datensätze von unterschiedlichen Netzwerkkomponenten über verschiedene Zeitspannen liefern, die alle in einem einzigen Dashboard zusammengefasst sind – dies gibt dem Nutzer einen umfassenden Einblick in den gesamten Netzwerkaufbau. Tiefgehende Analysen der Leistungsdaten helfen dabei, zukünftige Fehler vorauszusagen. Der Nutzer ist so mit den notwendigen Tools ausgestattet, um verschiedene Fehlerszenarien bewältigen zu können.

Ein konsolidiertes Dashboard für einen besseren Performance-Überblick

„Unternehmen nutzen verschiedene Analytics und Monitoring Tools, um jeden Aspekt einer Anwendung zu überwachen – vom Frontend-Code bis zur Backend-Infrastruktur“, weiß Dreyschultze. „Die Analyse der Daten, die von den verschiedenen Überwachungskanälen gesammelt wurden, ist kaum zu bewältigen, besonders bei einem plötzlichen Ausfall oder Fehler. Die Nachfrage nach einem Service, der Daten von verschieden Überwachungstools zusammenfasst, steigt. Die End-to-End-Ansicht eines gemeinsamen Dashboards hilft dabei, die Daten in Korrelation zu setzen und zeigt auf, wie jede Komponente die digitale Erfahrung beeinflusst. Diese Services werden bereits verstärkt genutzt. Anwender können so eine Momentaufnahme erhalten, wie es um den Zustand der Anwendung bestellt ist und auf einfache Weise Fehlerstellen oder potenzielle Gefährdungen erkennen.“

Überwachung von Docker-Containern

Unternehmen setzen zunehmend Docker-Container ein, um Anwendungen auszuführen. Microservices und Anwendungen in Containern funktionieren jedoch nur dann optimal, wenn Ressourcen effizient zugeteilt werden und die Prozessmenge ausgeglichen ist. Traditionelle Monitoring Tools reichen nicht aus, um Container zu überwachen, da jeder Container eine isolierte und unabhängige Umgebung ist, die ungeachtet der Architektur des Hosts betrieben werden kann. Zeitgemäße Monitoring Tools müssen daher die Ressourcenauslastung eines jeden Docker-Containers überwachen und die Leistung aller in Containern verorteter Anwendungen messen. Erst dann können optimierungsbedürftige Prozesse erkannt werden.

Überwachung und Machine Learning

Machine Learning ist aktuell eines der Trend-Technologiethemen. Advanced Analytics wird noch leistungsfähiger, indem es mit Machine Learning verknüpft wird. Big Data kann so noch effektiver analysiert werden, was zu tieferen Performance-Einblicken führt. Das Monitoring ist nicht auf die Überwachung und das Sammeln von Leistungsdaten beschränkt, sondern soll aus Daten Trends erkennen, um Fehler voraussagen zu können. Dies kann zu einem effizienteren und intelligenten Warnsystem führen, welches IT-Teams hilft, schneller und besser auf Ausfälle und Fehler zu reagieren. „Wenn Unternehmen die richtigen Monitoring Tools nach ihren Bedürfnissen einsetzen, sind sie auch für die komplexen neuen Entwicklungen in der IT gerüstet“, so Dreyschultze.

www.catchpoint.com

 

Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet

 

Awareness Factsheet