Moderne IT-Systeme werden mit einem ständigen Datenfluss überflutet, der Informationen zu Systemleistung und Sicherheit liefert. Diese Daten sind enorm wichtig für IT-Experten, die dafür sorgen, dass in ihren IT-Infrastrukturen alles reibungslos läuft.
Die Sache ist: Bei so vielen verfügbaren Informationen ist es fast unmöglich, zu erkennen, was alltäglich ist und was eine Bedrohung darstellen könnte. Die digitale Spreu vom Weizen zu trennen, erfordert mehr als nur Sichtbarkeit. Es erfordert immer ausgereiftere Systeme, die Informationen nicht nur sammeln, sondern interpretieren, priorisieren und nach ihnen handeln können.
Leider funktionieren die meisten heutigen Observability-Tools nicht auf diese Weise. Sie generieren Warnungen, protokollieren Ereignisse und bringen Anomalien ans Licht. Und obwohl die Technologie ständig verbessert wird, verstehen die Tools nicht immer, was passiert oder wie sie reagieren sollten.
Ein typisches globales Unternehmen mit hybrider Architektur hat die kritischen Anwendungen über mehrere Cloudanbieter verstreut. Teilweise laufen sie aber auch in On-Premises-Legacy-Systemen. All diese Systeme werden von insgesamt Dutzenden Monitoring-Tools überwacht, die täglich Tausende Warnungen aussenden.
Einige davon sind falsch positiv, bei anderen geht es um kleine Richtlinienverstöße. Doch irgendwo inmitten all dieser unwichtigen Daten lauert ein echter Sicherheitsvorfall. Und bis er erkannt wird, könnte es zu spät sein.
Observability wird intelligenter
Was fehlt, sind nicht einfach mehr Tools oder mehr Transparenz. Es erfordert ein neues, enorm ausgereiftes Niveau der Observability, das mehr wie ein menschliches Gehirn funktioniert: mit der Fähigkeit, Irrelevantes herauszufiltern, zu erkennen, was wichtig ist, und die richtige Reaktion zur richtigen Zeit auszulösen. Es braucht etwas, das intelligent ist und selbst „denken‟ kann.
Unter anderem wird eine solche Lösung aus dem Grund benötigt, dass IT-Teams in der Vergangenheit oft in separate Tools mit wenig Kontextbewusstsein investiert haben. Also mussten die menschlichen IT-Teammitglieder die Lücken schließen, entscheiden, ob Warnungen ernst zu nehmen sind, Ursachen aufspüren und die richtigen Maßnahmen ergreifen. Diese menschliche Überprüfung kostet Zeit, was in schnelllebigen Umgebungen das Risiko weiter erhöht.
Intelligente Observability-Systeme hingegen tun mehr, als nur nach bekannten Problemen Ausschau zu halten. Sie erkennen Anomalien in Echtzeit mit kontextbezogenem Monitoring und prüfen anschließend ihren Schweregrad und ihre mutmaßlichen Auswirkungen basierend auf technischer und geschäftlicher Relevanz und Risiken.
Statt alle Signale gleich zu behandeln, priorisieren sie abhängig von Dringlichkeit und Risiko und helfen Teams so, sich auf Wichtiges zu konzentrieren.
Wichtig ist auch, dass diese Systeme die Automatisierung unterstützen, sodass routinemäßige Fixes oder Risikominderungsmaßnahmen initiiert werden können. Statt Erkenntnisse über mehrere voneinander getrennten Ansichten zu verteilen, vereinen sie Daten aus On-Premises- und Cloud-Umgebungen zu einem zentralen, kohärenten Gesamtbild.
Ein solches System überwacht nicht nur IT-Systeme und Netzwerke. Es hat den vollen Überblick und ist bereit, aktiv zu werden, wann immer es gebraucht wird.
Wann wird das alles Wirklichkeit?
Die gute Nachricht: Es gibt Fortschritte. KI-gestützte Observability ist auf dem Weg vom Wunsch zur Implementierung. Anomalieerkennung auf Basis von Verhaltens-Baselines wird immer zugänglicher und hilft Teams, echte Probleme von Fehlalarmen zu unterscheiden. Warnungskorrelation und intelligente Eskalationspfade werden immer besser, reduzieren die Warnmüdigkeit und übermitteln die richtigen Signale zum richtigen Zeitpunkt an die richtige Person.
Einige Observability-Plattformen, darunter die bei SolarWinds entwickelten, kombinieren bereits Monitoring, Analyse und Reaktion in kohärenten Workflows. Die Integration in hybriden Umgebungen bleibt eine Herausforderung, doch die Bausteine für intelligente Observability sind bereits vorhanden.
Was noch fehlt, ist jedoch die Art von Intelligenz für gesamte Systeme, die Nuancen menschlicher Entscheidungsfindung wiedergeben können. Die meisten Observability-Tools setzen noch auf Schwellenwerte, Vorlagen oder vordefinierte Regeln. Echtes Kontextbewusstsein, also die Fähigkeit zu verstehen, weshalb etwas geschieht und was als Nächstes zu tun ist, befindet sich noch in der Entwicklung. Doch wir sind eindeutig auf dem Weg in diese Richtung.
Die aktuelle Relevanz
In einem KI- und Observability-Report von SolarWinds mit Fokus auf den öffentlichen Sektor gaben drei Viertel der Befragten an, hybride Umgebungen seien schwierig zu verwalten. Die größten Bedenken umfassten Datenschutz, Integrationskomplexität und mangelnde systemübergreifende Transparenz.
Der Umgang mit dieser Komplexität wird noch schwieriger dadurch, dass Observability-Tools sich häufig in Silos befinden: eines für die Cloud, eines für On-Premises-Systeme, mit separaten Plattformen für Erkennung, Protokollierung und Problemlösung.
Das Thema Sicherheit macht alles nur noch unvorhersehbarer. Im genannten Report gab mehr als die Hälfte der IT-Experten an, dass Fehler durch interne Mitarbeiter zu ernsthaften Bedrohungen beitragen. 59 % erwähnten die immer ausgefeilteren Angriffe externer Akteure. Durch das Aufkommen generativer KI werden diese externen Bedrohungen skalierbarer und gezielter, was bereits überlastete IT-Teams weiter belastet.
Daher besteht die Lösung darin, nicht noch mehr Tools hinzuzufügen, sondern die Komplexität zu reduzieren, die Sichtbarkeit zu verbessern und intelligent und schnell zu handeln. Ein Observability-System, das mehr wie ein Gehirn funktioniert, tut genau das, denn IT-Systeme müssen mehr können als nur beobachten. Sie müssen verstehen.