Anzeige

Anzeige

VERANSTALTUNGEN

OMX 2018
22.11.18 - 22.11.18
In Salzburg, Österreich

SEOkomm 2018
23.11.18 - 23.11.18
In Salzburg, Österreich

Blockchain Business Summit
03.12.18 - 03.12.18
In Nürnberg

Cyber Risk Convention
05.12.18 - 05.12.18
In Köln

IT-Tage 2018
10.12.18 - 13.12.18
In Frankfurt

Anzeige

Anzeige

Anzeige

TrendsInternet of Things (IoT) war lange vor allem ein Schlagwort für visionäre Zukunftstechnologie, die jedoch im Alltag noch nicht viel Anwendung fand. Dass sich dies gerade ändert, kann man an ersten Projekten und Produkten rund um Smart City, Smart Home, Connected Car und Industrie 4.0 deutlich erkennen. 

Auch auf der diesjährigen CES zeigte sich diese Entwicklung, vor allem in den Bereichen Augmented beziehungsweise Virtual Reality, die in immer mehr Anwendungen Realität werden. In der IT setzt sich zudem die Cloud als Infrastruktur immer mehr durch und DevOps, die IT-Operations neu definieren, kommen verstärkt zum Einsatz. „Gerade in einer derartigen Phase ist eine umfassende Kontrolle und Überwachung der IT-Infrastruktur und -Prozesse zwingend erforderlich“, weiß Tobias Dreyschultze, Senior Performance Engineer bei Catchpoint Systems. Er kennt die fünf Trends, die sich aktuell im Performance- und Verfügbarkeits-Monitoring abzeichnen.

IoT im Auge behalten

„Aktuell lässt sich beobachten, wie Nutzer Smart Devices mit IoT-Anwendungen mehr und mehr in ihren Alltag integrieren. Von tragbaren Geräten bis hin zur Smart-Home-Installation für Zuhause: Entwickler in der IT-Industrie entdecken ständig neue Anwendungsgebiete – nicht nur für den Endverbraucher, sondern in einem noch viel stärkeren Ausmaß auch für die Industrie. Mit neuen Sensoren, einer Vernetzung der Produktionsmaschinen und gesteigerter Rechenleistung ist es möglich, Maschinendaten zu erfassen, zu analysieren und bessere Erkenntnisse aus ihnen zu schöpfen“, so Dreyschultze. „Diese Entwicklung bietet große Vorteile für Unternehmen, führt jedoch auch zu Fragen nach Messbarkeit und Zuverlässigkeit. Connected Technology erfordert konstantes Monitoring, um das Funktionieren von Smart Devices ohne Fehler oder Verbindungsprobleme zu gewährleisten.“

Monitoring Tools müssen hierfür stets aktuell sein und in Echtzeit Daten liefern, um den komplexen Netzwerken gerecht werden zu können. IoT-Geräte benutzen zahlreiche Sensoren, um Daten zu sammeln, die zu riesigen Datenspeichern geleitet werden, was eine hohe Bandbreite bedingt. Monitoring Tools sollten beispielsweise Fehler unmittelbar erkennen und Administratoren alarmieren können, sobald Anomalien bei der Ressourcenauslastung auftreten, die diese Verbindung gefährden könnten. Das ganze Potenzial von IoT kann nur dann ausgeschöpft werden, wenn durchgehend die richtigen Programme zum Einsatz kommen, um mögliche Ursachen für Verzögerungen, Ausfälle oder Fehler zu überwachen, zu analysieren und Maßnahmen anzuwenden. Misst man diesem Punkt nicht genug Bedeutung bei, wird das zu einem großen Hindernis beim weiteren Vormarsch von IoT werden.

Datenanalysen: tiefgehend und vorhersagend

Anwendungen und ihre Verbindungen werden immer komplexer und vereinen immer mehr unterschiedliche Komponenten wie CDN Provider, DNS Provider, 3rd Party Provider und vieles mehr. Jede dieser Komponenten ist notwendig für das digitale Gesamterlebnis. Ein Fehler bei nur einer dieser Komponenten kann die gesamte Struktur und letztendlich das Unternehmen beeinträchtigen. Moderne Monitoring Tools generieren Gigabyte um Gigabyte an Monitoring-Daten. Die Fehlersuche innerhalb dieser Daten kann sehr aufwändig sein und um Unregelmäßigkeiten zu finden, muss der gesamte verfügbare Datensatz in Echtzeit untersucht werden können.

Aktuelle Monitoring Tools können bereits vergleichbare Datensätze von unterschiedlichen Netzwerkkomponenten über verschiedene Zeitspannen liefern, die alle in einem einzigen Dashboard zusammengefasst sind – dies gibt dem Nutzer einen umfassenden Einblick in den gesamten Netzwerkaufbau. Tiefgehende Analysen der Leistungsdaten helfen dabei, zukünftige Fehler vorauszusagen. Der Nutzer ist so mit den notwendigen Tools ausgestattet, um verschiedene Fehlerszenarien bewältigen zu können.

Ein konsolidiertes Dashboard für einen besseren Performance-Überblick

„Unternehmen nutzen verschiedene Analytics und Monitoring Tools, um jeden Aspekt einer Anwendung zu überwachen – vom Frontend-Code bis zur Backend-Infrastruktur“, weiß Dreyschultze. „Die Analyse der Daten, die von den verschiedenen Überwachungskanälen gesammelt wurden, ist kaum zu bewältigen, besonders bei einem plötzlichen Ausfall oder Fehler. Die Nachfrage nach einem Service, der Daten von verschieden Überwachungstools zusammenfasst, steigt. Die End-to-End-Ansicht eines gemeinsamen Dashboards hilft dabei, die Daten in Korrelation zu setzen und zeigt auf, wie jede Komponente die digitale Erfahrung beeinflusst. Diese Services werden bereits verstärkt genutzt. Anwender können so eine Momentaufnahme erhalten, wie es um den Zustand der Anwendung bestellt ist und auf einfache Weise Fehlerstellen oder potenzielle Gefährdungen erkennen.“

Überwachung von Docker-Containern

Unternehmen setzen zunehmend Docker-Container ein, um Anwendungen auszuführen. Microservices und Anwendungen in Containern funktionieren jedoch nur dann optimal, wenn Ressourcen effizient zugeteilt werden und die Prozessmenge ausgeglichen ist. Traditionelle Monitoring Tools reichen nicht aus, um Container zu überwachen, da jeder Container eine isolierte und unabhängige Umgebung ist, die ungeachtet der Architektur des Hosts betrieben werden kann. Zeitgemäße Monitoring Tools müssen daher die Ressourcenauslastung eines jeden Docker-Containers überwachen und die Leistung aller in Containern verorteter Anwendungen messen. Erst dann können optimierungsbedürftige Prozesse erkannt werden.

Überwachung und Machine Learning

Machine Learning ist aktuell eines der Trend-Technologiethemen. Advanced Analytics wird noch leistungsfähiger, indem es mit Machine Learning verknüpft wird. Big Data kann so noch effektiver analysiert werden, was zu tieferen Performance-Einblicken führt. Das Monitoring ist nicht auf die Überwachung und das Sammeln von Leistungsdaten beschränkt, sondern soll aus Daten Trends erkennen, um Fehler voraussagen zu können. Dies kann zu einem effizienteren und intelligenten Warnsystem führen, welches IT-Teams hilft, schneller und besser auf Ausfälle und Fehler zu reagieren. „Wenn Unternehmen die richtigen Monitoring Tools nach ihren Bedürfnissen einsetzen, sind sie auch für die komplexen neuen Entwicklungen in der IT gerüstet“, so Dreyschultze.

www.catchpoint.com

 

GRID LIST
Tb W190 H80 Crop Int 72f4f00f38a67264795c38a29ebfca98

Intelligente Standards für die Automobilindustrie

In der jüngeren Vergangenheit hat es einen Umbruch in der vernetzten Fahrzeugtechnik…
Tb W190 H80 Crop Int 83e42abf2c83bc3b81052b099644a410

Faktor Mensch im Fokus der Digitalisierung

Industrie 4.0 und Internet of Things, Digitalisierung, Artificial Intelligence –…
Vertrauen in #Datensicherheit auf Fünf-Jahres-Hoch @Bitkom #Datenschutz  it-daily.net/analysen/19805-vertrauen-in-datensicherheit-auf-fuenf-jahres-hoch

IT-Modernisierung: Enterprise Architekten als Vermittler für digitale Transformation

Digitale Unternehmen bringen die Interaktion mit ihren Kunden auf ein neues Level.…
KI

KI ist nicht automatisch für alle gut

Paragon Systemhaus startet Aufklärungskampagne mit Prof. Dr. Martin Bogdan: „KI, RPA,…
Tb W190 H80 Crop Int E14b23d2b8004a8b8336ad4da6e3db77

Ratgeber zur richtigen Voice Search Strategie

Mit der Verbreitung von Sprachassistenten wie Google Assistent oder Amazon Alexa wird…
Netzwerk Stadt

Mobil unterwegs: Die Netzwerk-Konnektivität geht auf die Straße

Die Möglichkeit, die Netzkonnektivität auf Fahrzeuge auszudehnen, hat die Art und Weise…
Smarte News aus der IT-Welt