Strategische Rolle in alltäglichen Arbeitsabläufen

Fünf KI-Sicherheitstrends, die in diesem Jahr wichtig werden

KI-Sicherheit

2026 wird künstliche Intelligenz nicht nur Abläufe beschleunigen, sondern unter anderem auch eine strategische Rolle in alltäglichen Arbeitsabläufen, im Netzwerk sowie bei Entscheidungssystemen spielen. Mit der zunehmenden Verbreitung von KI wachsen jedoch auch die damit einhergehenden Risiken.

Da die Künstliche Intelligenz zunehmend autonom arbeitet, müssen Sicherheitsteams fragmentierte Tools durch einheitliche Kontrollen ersetzen. Diese müssen KI-Modelle steuern, sensible Daten schützen, Benutzeridentitäten authentifizieren und das Netzwerkverhalten überwachen.

Anzeige

Dabei werden fünf Trends die KI-Sicherheit in diesem Jahr ganz besonders beeinflussen:

1. Der Aufstieg des agentenbasierten KI-Browsers verspricht Autonomie – und birgt Risiken 

Neue KI-gestützte Browser (wie OpenAI Atlas), die nachfragen und eigenständig handeln, verändern die Art und Weise, wie Benutzer mit dem Web interagieren. Sie füllen Formulare aus, rufen APIs auf und führen Aktionen im Namen der Benutzer durch. Dabei merken sie sich den Kontext und können ihn wiederverwenden. Diese Vereinfachung bringt jedoch auch neue Gefahren mit sich. Bösartige Webseiten oder versteckte Inhalte können KI-Agenten beispielsweise dazu verleiten, sensible Informationen preiszugeben oder direkt unbefugte Aktionen auszuführen.

So berichteten Security-Experten von einer Schwachstelle, die es Angreifern ermöglicht, die Atlas-Suchleiste zu knacken, indem sie eine Eingabeaufforderung als URL tarnten. Durch das Verstecken eines Befehls in einer gefälschten URL können die Sicherheitsprüfungen von KI-Browsern zudem u.U. umgangen werden und das System dazu gebracht werden, eine böswillige Anweisung auszuführen.

Anzeige

Um derlei Risiken zu begegnen, sollten Abwehrmaßnahmen sowohl die Identität als auch die Daten berücksichtigen. Es gilt:

  • KI-Agenten mit bestimmten Aktionsberechtigungen sollten eindeutige Identitäten zugewiesen werden.
  • Sensible Daten müssen an der Quelle klassifiziert und gekennzeichnet werden.
  • Surfen auf riskanten Websites muss isoliert werden.
  • Genehmigungsworkflows und Schnellabschaltmechanismen für risikoreiche Aufgaben müssen eingerichtet werden.

2. LLM-Agenten entwickeln sich zu einem Problem für die Vorstandsebene

Große Sprachmodelle (Large Language Models, LLMs) werden zunehmend zu agentenbasierten Systemen, die eigenständig Tools verwenden, mit anderen Agenten kommunizieren und mehrstufige Workflows durchführen können. Die Entwicklung von einfachen Chatbots hin zu unabhängigen Systemen geht jedoch mit Intransparenz und Komplexität einher. Unternehmen gewähren diesen Systemen verstärkt Berechtigungen, ohne die Konsequenzen vollständig zu erfassen. Das Ergebnis ist eine neue Klasse von Risiken in der Lieferkette.

Unbefugte Aktionen, eine Offenlegung von Daten und Voreingenommenheit können durch Tool-Eingaben oder den Austausch zwischen Agenten entstehen. Angreifer könnten sich zudem eher auf vorgelagerte Dienste konzentrieren als auf das KI-Modell selbst. Um das Risiko zu adressieren, sollten Unternehmen den Zugriff einschränken, die Tool-Nutzung überwachen und sicherstellen, dass Prozesse wiederholt und überprüft werden können. Die übermäßige Verwendung von Blackbox-Modellen führt zu sogenannten „Prozessschulden“, bei denen sich im Laufe der Zeit versteckte Fehler summieren, ohne dass diese entdeckt werden. Um dem entgegenzuwirken, sollte jeder KI-Workflow Transparent gestaltet und rückverfolgbar sein.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

3. Prompt-Injection wird zur dominierenden Incident-Klasse

Angriffe, die das Verhalten von KI-Modellen verändern, beispielsweise indirekte Prompt-Injection, Retrieval Poisoning oder Adversarial Content, führen zu Sicherheitsvorfällen, für die kein Eindringen in Infrastruktur erforderlich ist. KI-Modelle können stattdessen durch sorgfältig gestalteten Kontext dazu verleitet werden, sensible Daten preiszugeben oder unerwünschte Aktionen auszuführen.

Die Abwehrmaßnahmen müssen daher über statische Filter hinausgehen. Beliebte Lösungen sind hier Modell-Firewalls, vertrauenswürdige Datenquellen und Herkunftsüberprüfung (z. B. C2PA). Die Überwachung des KI-Datenverkehrs hinsichtlich sensibler Daten sowie kontinuierliches Red Teaming sind unerlässlich. Auf Anwendungsebene sollten Eingaben bereinigt, die Daten, auf die die Modelle zugreifen können, begrenzt und eine separate Kontrollschicht eingeführt werden. Diese überprüft und genehmigt KI-Ausgaben, bevor automatisierte Aktionen ausgelöst werden.

4. SASE entwickelt sich zur „AI Access Fabric”

Die Security Access Service Edge-Komponenten (SWG, CASB, ZTNA und DLP) werden sich zu KI-fähigen Komponenten weiterentwickeln. Sie werden eine „KI-Zugriffsstruktur“ bilden, die KI-Sitzungen klassifiziert, riskante Absichten erkennt, rechtliche Vorgaben sowie Regeln zur Datenhaltung durchsetzt und den Datenverkehr an zugelassene KI-Modelle weiterleitet. Dieser Ansatz vereinheitlicht die Kontrolle über die Nutzung von Schatten-KI – also nicht autorisierte KI-Anwendungen wie SaaS-Copiloten, Browser-Plug-ins und APIs von Drittanbietern – und gewährleistet konsistente Prüfpfade. Zu den wichtigsten Funktionen gehören die Entfernung personenbezogener Daten vor Eingaben, die Identifizierung von Tokens und sensiblen Daten, die Verwendung einer stärkeren Authentifizierung auf Basis von KI-Risikobewertungen sowie die Kontrolle des KI-Modellzugriffs entsprechend der Benutzeridentität und des Gerätestatus. In Kombination mit dem KI-Sicherheitsstatusmanagement können SASE-ähnliche Kontrollen Datenlecks eindämmen, bevor sie sich weiter auf Systeme oder Cloud-Dienste ausbreiten.

5. KI-Sicherheitsstatusmanagement wird zur Steuerungsebene

Unternehmen werden nicht nur einfache LLM-Gateways nutzen, sondern ein umfassendes KI-Sicherheitsmanagement (AI-SPM) einführen. Dieses bietet eine zentralisierte Nachverfolgung von KI-Modellen und -Daten, Richtlinien, eine kontinuierliche Bewertung, Kontrolle sensibler Informationen und eine einheitliche Governance sowohl für KI-Tools aus der Cloud (SaaS) als auch für maßgeschneiderte Modelle. AI-SPM entspricht den Risikomanagement-Frameworks der NIST- und ISO-Standards, indem es wiederholbare Nachweise für Sicherheitskontrollen bietet, die Bewertung von Modellen prüft und Workflows für Abhilfemaßnahmen skizziert. Durch das Hinzufügen von AI-SPM-Kontrollen, wie der Nachverfolgung der Modellnutzung und der Festlegung von Zugriffsregeln basierend auf der Benutzeridentität, können konsistente und nachvollziehbare Richtlinien über Systeme und Standorte hinweg durchgesetzt werden.

Das Risiko, das mit KI einhergeht, ist Wirklichkeit geworden. Da KI-Systeme immer unabhängiger, undurchsichtiger und zunehmend verbreiteter werden, müssen Sicherheitsteams mit der Entwicklung Schritt halten – jedoch nicht mit (vor-)schnellen Lösungen, sondern mit durchdachten, proaktiven Strategien, die auf einer starken Governance basieren. Das bedeutet, dass Identitäts-, Daten- und Netzwerkschutz von Anfang an in jeden KI-Prozess integriert werden müssen. Ob SASE, AI-SPM oder Red-Team-Übungen – das Ziel bleibt dasselbe: sicherstellen, dass KI dem Unternehmen dabei hilft, sich geschützt und verantwortungsbewusst weiterzuentwickeln.

Autor: Etay Maor, Chief Security Strategist bei Cato Networks 

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.