Anzeige

Monitoring

In Zeiten von Digitalisierung, Cloud, und Big Data stellen Unternehmen immer höhere Ansprüche an ihre IT-Landschaften. Gleichzeitig müssen diese Systeme in immer kürzerer Zeit immer größere Datenmengen bewältigen. Verfügbarkeit und Performance werden zu jeder Tages- und Nachtzeit vorausgesetzt.

Ausfallzeiten oder geringe Geschwindigkeiten dulden Unternehmen und Endverbraucher in der heutigen Zeit nicht mehr. Trotzdem vernachlässigen viele Unternehmen den wichtigen Maßnahmenfaktor des Monitorings noch immer und gehen damit genau derartige Risiken ein. Aus der internationalen Studie von Splunk Inc. und dem unabhängigen Forschungsinstitut Ponemon, „Reducing Complexity in IT Infrastructure Monitoring: A Study of Global Organizations“, ging 2018 hervor, dass IT-Administratoren in der Beherrschung der Systeme – seien es On-Premise-, Cloud- oder Hybrid-Lösungen – die größte Herausforderung im IT-Management sehen. Nur 29 Prozent der Befragten gaben an, mit dokumentierten Workflows und automatisierten Prozessen zu arbeiten, um bei einem Ausfall optimal reagieren zu können. „Nicht nur zur schnellen Analyse bei einem Vorfall ist das Monitoring wichtig. Mithilfe optimal abgestimmter Beobachtungsstrukturen lassen sich Vorfälle präventiv prognostizieren, sodass schon Maßnahmen ergriffen werden können, bevor es zum Vorfall kommt“, erklärt Torben Belz, Geschäftsführer der PLUTEX GmbH aus Bremen.

Wer im Dunkeln tappt, kann keine Probleme erkennen

Selbst wenn Unternehmen auf Monitoring setzen, bedeutet das nicht automatisch, dass im Fall eines Ausfalls die Fehlerquelle schnell und effizient ermittelt werden kann. „Noch immer sind die Strukturen oft sehr intransparent, liefern die Informationen nicht so zielgerichtet wie benötigt oder sie liegen zwar in Massen vor, können aber aufgrund fehlenden Know-hows der IT-Mitarbeiter nicht ausreichend gewertet und verarbeitet werden“, weiß Torben Belz. Auch er sieht als größte Herausforderung für ein optimales und präventiv gerichtetes Monitoring die Beherrschung der Systemlandschaften und der Analyseprozesse mit den entsprechenden Informationen. „Technik allein macht kein sicheres Monitoring aus. Es wird erst durch Professionals effizient, die wissen, wie sie Technik und gelieferte Daten nutzen müssen, damit Ausfälle schon im Vorfeld abgewendet werden können.“ Hier sparen zu viele Unternehmen am falschen Ende, denn die besten Monitoring-Tools bringen nicht den gewünschten Erfolg, wenn es keine Fachkraft gibt, die die Ergebnisse analysieren und daraus ein sicheres Vorfallsmanagement entwickeln kann.

Experten zur Rückenstärkung

Ein großes Problem von IT-Landschaften besteht in ihrer Unablässigkeit. Sie arbeiten 24 Stunden, an sieben Tagen in der Woche. Das ist für einen Menschen nicht möglich. „Diesen Punkt unterschätzen viele Unternehmen. Selbst wenn sie einen IT-Admin inhouse beschäftigen, kann der nicht nonstop arbeiten, ohne Urlaub, ohne Wochenende und zu jeder Tageszeit abrufbereit“, verdeutlicht Belz und merkt an: „Aber mehr als eine oder zwei Personen zu beschäftigen ist in Unternehmen, deren Kerngeschäft nicht die IT ist, kaum realisierbar.“ Ein gutes Monitoring zeichnet sich dadurch aus, dass es schnell implementiert werden kann und dabei auch zukünftig skalierbar ist. Bestenfalls sollte die Lösung sowohl in heterogenen als auch hybriden Strukturen mit verschiedenen Systemen und Cloudanbietern kompatibel sein.

Externe Rechenzentren sind auf diesem Gebiet sehr flexibel und bieten eine sinnvolle Alternative zur sicheren und lückenlosen Rückenstärkung. Aufgrund ausgebildeter Experten und Bereitschaften werden Systeme 24 Stunden proaktiv überwacht und Monitorings täglich analysiert und ausgewertet. So vermeiden Rechenzentren Störungen im Vorfeld. „Zur besseren Verteilung von Lastspitzen arbeiten wir mit Kapazitätsadministration und bewährten Prozessen zur Erkennung und Beseitigung von Infrastrukturengpässen. Nur durch die Kenntnisse und Erfahrungen unserer Mitarbeiter werden aus den reinen Datenansammlungen im Managed Monitoring verlässliche Aussagen und Analysen zur Optimierung von IT-Infrastrukturen.“

www.plutex.de
 


Weitere Artikel

Rechenzentrum

6 Erkenntnisse zum Status quo von Rechenzentren

Ein wachsender Kapazitätsbedarf, steigende Anforderungen an die Verfügbarkeit, Lieferengpässe bei kritischen Produkten – die Liste der Herausforderungen, vor denen Rechenzentren weltweit stehen, ist lang.
SDN

5 Gründe, warum Sie auf SD-WAN setzen sollten

Haben Sie Zweigstellen, die bisher über MPLS-Leitungen ans zentrale Rechenzentrum angebunden sind? Dann kennen Sie bestimmt das Problem: Die alte Technik ist teuer, unflexibel und bremst die Cloud-Nutzung aus. SD-WAN kann diese Herausforderungen lösen.
Backup

Warum ein ganzheitlicher Ansatz die Zukunft des Backups ist

IT-Sicherheitsteams stehen weiterhin vor großen Herausforderungen. Die Art, wie wir arbeiten hat sich durch hybride Arbeitsumgebungen massiv geändert. Die Ansprüche an Backups sind daher unweigerlich gewachsen und Unternehmen müssen sich an diese neuen…
Rechenzentrum

Essentielle Skills für modernes Network Engineering

Wenn es um das Management von Unternehmensnetzwerken geht, rückt NetOps immer mehr in den Fokus. Entsprechend verändern und vergrößern sich auch die Anforderungen an Network Engineers. Opengear hat sieben Skills ausgemacht, auf die Netzwerk-Experten in…

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.