Maximale Visibility

KI-Agenten und Cybersicherheit? Nur mit Deep Observability 

Auge digital

Mit künstlicher Intelligenz ist es heute bereits möglich, Texte und audiovisuelle Inhalte automatisch binnen Sekunden zu kreieren. Zukünftig könnte die Automatisierung mit spezialisierten Agenten, die eigenständig komplexe Abläufe steuern, noch einen Schritt weitergehen.

Um die Entscheidungen zu optimieren und nachvollziehen zu können, ist jedoch eine optimale Datengrundlage entscheidend – vor allem im Security-Bereich. Laut den Analysten von Gartner soll jede dritte Unternehmensanwendung bis 2028 KI-Agenten enthalten. Deren weitgehend autonome Arbeitsweise wird einerseits als große Revolution gefeiert, wirft andererseits aber auch Fragen hinsichtlich der Nachvollziehbarkeit und der Verantwortung für getroffene Entscheidungen auf. Warum Verantwortung eine so große Rolle spielt, wird schnell klar, wenn man einen Blick auf die Gebiete wirft, in denen großes Potenzial für KI-Agenten gesehen wird. 

Anzeige

Anwendungsszenarien liegen oft in sensiblen Bereichen 

Besonders vielversprechend erscheint der Einsatz von KI-Agenten in Branchen, in denen notorischer Fachkräftemangel herrscht. Bereits seit längerer Zeit wird etwa im medizinischen Bereich mit Machine-Learning gearbeitet, um mit automatischer Mustererkennung die Untersuchung von Gewebeproben zu beschleunigen und so Patienten schneller diagnostizieren zu können. Zukünftig könnte hier noch weitergedacht werden, indem etwa Agenten Ärzte bei der anschließenden Therapie und Erstellung von Medikationsplänen unterstützen und sie bei der Dokumentation entlasten. Selbstverständlich sollten bei diesem Szenario endgültige Entscheidungen immer beim Menschen liegen und es muss sichergestellt werden, dass die Datengrundlage einwandfrei ist. 

Ähnlich verhält es sich in der Cybersicherheit: Da dringend benötigte Experten in den Unternehmen fehlen, könnten KI-Agenten hier für spürbare Entlastung sorgen und rund um die Uhr blitzschnell enorme Datenmengen analysieren. Auf KI-basierende Automated Threat Detection kann bereits Anomalien in nahezu Echtzeit erkennen, aus vergangenen Vorfällen lernen und ihre Reaktionsmuster automatisch anpassen. Darüber hinaus könnten autonom agierende Agenten aber noch weitere Unterstützung bei der Incident Response leisten – beispielsweise kompromittierte Endpunkte sofort isolieren, auch wenn gerade kein menschliches Mitglied des Sicherheits-Teams verfügbar ist. 

Außerdem könnten KI-Agenten bei der Alert Triage unterstützen. Klassische Sicherheitslösungen erzeugen häufig Fehlalarme und Security-Mitarbeiter müssen händisch priorisieren und irrelevante Meldungen herausfiltern. Diese ungeliebte Arbeit könnte zukünftig ein KI-Kollege automatisiert übernehmen. Dadurch ließe sich nicht nur die sogenannte Alert Fatigue reduzieren, sondern das Team hätte auch mehr Zeit für strategische Initiativen. 

Anzeige

Datengrundlage darf keine zweite Blackbox sein 

Zu Beginn des Siegeszuges der KI-Chatbots galten die Large Language Models (LLMs) dahinter als Blackbox, das heißt, aus dem Output ließ sich nicht darauf schließen, wie und warum die KI zu diesem Ergebnis gelangt ist. Ein Problem dabei war und ist bei proprietären Modellen, dass die Trainingsdaten unbekannt sind. Durch Open-Source-Alternativen lässt sich zumindest teilweise Abhilfe schaffen, da dort die Trainingsdaten bekannt sind. Mit Low-Rank Adaptation (LoRA) und Fine Tuning lassen sich Modelle zudem vergleichsweise einfach an spezialisierte Kontexte anpassen. 

Eine Unsicherheit bleibt allerdings weiterhin bestehen: Was in einem KI zugrundeliegenden neuronalen Netz genau passiert, ist bisher nicht vollständig verständlich und wird immer auch ein stochastisches Element behalten. 

Umso wichtiger ist es, dass einerseits die Trainingsdaten für KI-Agenten sowie andererseits die Daten, die sie im Alltag verarbeiten sollen, völlig transparent und möglichst granular sind. Ansonsten drohen sich Unsicherheiten zu potenzieren, was der Verlässlichkeit der Agenten empfindlich schaden könnte. 

In der klassischen Network Observability wurde traditionell mit einer vereinfachten Datengrundlage auf der Anwendungsebene gearbeitet – die entsprechenden Tools konnten keine tiefere Sichtbarkeit erzeugen. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Deep Observability: Schlüssel für vertrauensvolle KI-Agenten in der Netzwerksicherheit

In modernen IT-Umgebungen, die aus Cloud-, Hybrid- und Container-Infrastrukturen bestehen, reicht klassische Observability oft nicht mehr aus. Sie liefert zwar Einblicke über Metriken, Logs und Traces, doch viele kritische Vorgänge bleiben unsichtbar – insbesondere im Netzwerk- oder Sicherheitskontext. Deep Observability schließt diese Lücke. Die Technologie erweitert den möglichen Beobachtungsrahmen, indem sie Daten direkt aus dem Netzwerkverkehr und aus tieferen Systemschichten gewinnt. Durch die Kombination von Netzwerk-Telemetrie, Anwendungsdaten und Sicherheitsinformationen entsteht ein vollständiges, kontextualisiertes Bild des Systemverhaltens.

Technisch basiert Deep Observability auf spezialisierten Pipelines, die Rohdaten aus unterschiedlichen Quellen erfassen, anreichern, entschlüsseln und an Analyseplattformen weiterleiten. Zwar sammelt und analysiert auch Deep Observability Metriken, Events, Logs und Traces (MELT) – ganz ähnlich wie klassische Tools. Doch dabei bleibt es nicht. Entsprechende Lösungen erlauben einen wesentlich tieferen Blick ins Netzwerk, da sie zusätzlich alle Datenströme, inklusive lateralem Traffic, sichtbar machen – bis hinunter auf die Ebene einzelner Pakete. Im OSI-Modell bedeutet dies, dass Deep Observability die Schichten 7 bis 3 – Anwendungs- bis Netzwerkebene – abdeckt. 

Die Lösungen können so KI-Agenten einerseits eine solide, granulare Datengrundlage zur Verfügung stellen und andererseits lässt sich basierend auf diesen Daten die Entscheidungsfindung besser nachvollziehen. Durch Echtzeiteinblicke in das gesamte Netzwerk können Teams sicherheitsrelevante Anomalien frühzeitig erkennen und entsprechende Gegenmaßnahmen einleiten. 

Um KI-Agenten mit dem optimalen Kontext zu versorgen und deren Aktionen im Detail nachvollziehen zu können, sollten Unternehmen auf Deep Observability setzen, damit aus KI-Agenten vertrauensvolle Partner werden. 

Tiho Saric Gigamon

Tiho

Saric

Senior Sales Director

Gigamon

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.