CISA und Partner warnen vor Risiken autonomer KI in kritischen Infrastrukturen. Fünf Kategorien von Sicherheitsbedrohungen stehen im Zentrum der neuen Richtlinien.
Die US-Cybersicherheitsbehörde CISA hat gemeinsam mit Partnerbehörden aus Großbritannien, Kanada, Australien und Neuseeland einen neuen Sicherheitsleitfaden für agentische KI veröffentlicht. Die Behörden warnen darin, dass der zunehmende Einsatz dieser autonomen Systeme in der Verteidigung und in kritischen Infrastrukturen verstärkte Sicherheitskontrollen erfordert. Agentische KI unterscheidet sich von klassischer generativer KI durch ihre Fähigkeit, mehrstufige Aufgaben mit minimaler menschlicher Intervention zu planen, zu begründen und auszuführen.
Unter agentischer KI verstehen die Behörden Systeme, die auf großen Sprachmodellen (LLMs) basieren und in der Lage sind, eigenständig Entscheidungen innerhalb vernetzter Umgebungen zu treffen. Beispiele für solche Integrationen finden sich in Plattformen wie Microsoft Copilot, Google Gemini oder Anthropic Claude. In kritischen Sektoren werden diese Agenten zunehmend eingesetzt, um komplexe Betriebsabläufe zu automatisieren. Laut CISA führt diese Autonomie jedoch zu neuen Risiken, die von Produktivitätsverlusten und Dienstunterbrechungen bis hin zu schwerwiegenden Sicherheitsvorfällen reichen können.
CISA: Privilegien der KI-Agenten als Sicherheitsrisiko
Der gemeinsame Leitfaden der „Five Eyes“-Partner identifiziert fünf spezifische Bedrohungsfelder, denen Unternehmen proaktiv begegnen müssen:
- Privilegien: Das Risiko entsteht, wenn KI-Agenten übermäßige Zugriffsberechtigungen erhalten. Eine Kompromittierung eines solchen Agenten kann weitreichende Folgen für die gesamte Infrastruktur haben.
- Design und Konfiguration: Unsichere System-Setups und fehlerhafte Bereitstellungsentscheidungen können neue Schwachstellen schaffen, die von Angreifern ausgenutzt werden könnten.
- Verhalten: Agenten können unvorhersehbar agieren oder durch externe Einflüsse so manipuliert werden, dass sie Schaden anrichten.
- Struktur: Die Vernetzung verschiedener Agenten führt dazu, dass sich kleine Probleme in einem Teil des Systems schnell auf die gesamte Struktur ausbreiten können.
- Rechenschaftspflicht: Die Architektur von KI-Agenten erschwert oft die Rückverfolgung von Entscheidungsprozessen, was es schwierig macht, Verantwortlichkeiten bei Fehlfunktionen zuzuweisen.
Experten fordern Fokus auf Datensicherheit
Branchenexperten wie Eran Barak, CEO der Datensicherheitsfirma MIND, betonen, dass KI-Agenten aufgrund ihrer nicht-deterministischen Natur inhärent riskant seien. Sie würden oft das tun, was das Modell für richtig hält, ohne dass eine ständige menschliche Aufsicht erfolgt. Der effektivste Weg zur Sicherung bestehe darin, den Zugriff der Agenten auf sensible Daten strikt zu kontrollieren. Viele Unternehmen besäßen jedoch derzeit noch keine ausreichende Übersicht über die Datenelemente, die sie mit ihren KI-Agenten verbinden.
Trotz der behördlichen Warnungen besteht in vielen Sektoren ein hoher Druck, agentische KI schnell auszurollen, um Wettbewerbsvorteile zu wahren. Die Sicherheitsbehörden fordern daher eine stärkere Zusammenarbeit und Forschung, um bestehende Sicherheits-Frameworks an die spezifischen Anforderungen autonomer Agenten anzupassen. Die Empfehlung lautet, die Einführung kontrolliert vorzunehmen und sicherzustellen, dass die Datensicherheitskontrollen mit der Geschwindigkeit der KI-Entwicklung Schritt halten.