KI nicht der Bösewicht dieser Geschichte

KI als Sicherheitslücke – und wie man sie schließen kann

KI-Sicherheit

Laut dem Weltwirtschaftsforum hat sich die Zahl der Cyberangriffe weltweit innerhalb von nur vier Jahren mehr als verdoppelt – von 818 Angriffen pro Organisation im Jahr 2021 auf nahezu 2.000 pro Organisation in diesem Jahr.

Eine alarmierende Entwicklung. Besonders betroffen sind kleine Unternehmen: Sie melden inzwischen siebenmal häufiger als noch 2022 eine unzureichende Cyber-Resilienz. Und immer häufiger spielen KI-gestützte Werkzeuge dabei eine zentrale Rolle, nicht nur wegen der stark gestiegenen Anzahl der Angriffe, sondern auch aufgrund ihrer zunehmenden Raffinesse.  

Anzeige

Risiken entstehen inzwischen auf jeder Ebene des KI-Stacks – von Prompt-Injection und Datenlecks bis hin zu KI-gestütztem Bot-Scraping und Deepfakes. Wie ein aktueller Branchenbericht zeigt, setzen Angreifer mittlerweile große Sprachmodelle (Large Language Models, LLMs) ein, um täuschend echte Phishing-Kampagnen zu erstellen, polymorphe Malware zu schreiben und Social-Engineering-Angriffe in großem Maßstab zu automatisieren. Das Ergebnis ist eine Bedrohungslage, die lernt, sich anpasst und skaliert, und das schneller, als menschliche Analysten reagieren können. 

Was sich hinter den Schichten verbirgt 

KI-Systeme sind in Schichten aufgebaut, und jede dieser Ebenen hat ihre eigenen Schwachstellen. Auf der Umgebungsebene, die Rechenleistung, Netzwerke und Speicher bereitstellt, ähneln die Risiken zwar denen klassischer IT-Infrastrukturen. Das Ausmaß und die Komplexität von KI-Workloads machen Angriffe jedoch deutlich schwerer erkennbar. Auf der Modellebene beginnt die eigentliche Manipulation: Prompt-Injection, die Erzeugung nicht konformer Inhalte und Datenexfiltration zählen inzwischen zu den größten Bedrohungen. Das belegen auch die OWASP Top 10 für LLM-Anwendungen 2025. Die Kontextebene, in der sich Datenbanken für Retrieval-Augmented Generation (RAG) sowie Memory-Stores befinden, ist zu einem bevorzugten Ziel für Datendiebstahl geworden. Auf den Werkzeug- und Anwendungsebenen schließlich können übermäßig privilegierte APIs und kompromittierte KI-Agenten Angreifern die Kontrolle über ganze Workflows verschaffen. 

Mit anderen Worten: Die Angriffsfläche wächst in alle Richtungen und mit ihr der Bedarf an intelligenteren Abwehrmechanismen. Die Antwort kann dabei nicht sein, KI aufzugeben. Vielmehr müssen wir KI einsetzen, um KI abzusichern. Ein ganzheitliches Sicherheitskonzept muss daher den gesamten Lebenszyklus von KI abdecken und drei zentrale Ebenen schützen: die Modellinfrastruktur, das Modell selbst sowie die KI-Anwendungen. Wird Sicherheit von Anfang an in die Geschäftsprozesse integriert, statt sie nachträglich „aufzusetzen“, profitieren Unternehmen von effizientem Schutz mit geringer Latenz ohne Abstriche bei Benutzerfreundlichkeit oder Performance. 

Anzeige

Sicherheitsverantwortliche setzen bereits intelligente Schutzmechanismen ein, die Prompts auf bösartige Absichten prüfen, Anomalien im API-Verhalten erkennen und generierte Inhalte zur besseren Nachverfolgbarkeit mit Wasserzeichen versehen. Die neueste Generation KI-gestützter Security Operations nutzt Multi-Agenten-Modelle, um täglich Milliarden von Ereignissen zu analysieren, neu entstehende Risiken in Echtzeit zu identifizieren und erste Gegenmaßnahmen automatisiert einzuleiten. Laut der Studie Digital Trust Insights 2026 von PwC steht KI inzwischen weltweit ganz oben auf der Investitionsagenda von Chief Information Security Officers (CISOs) – ein deutliches Zeichen dafür, dass Unternehmen Cyberresilienz zunehmend als lernendes System begreifen und nicht mehr als statische Checkliste. 

Bedrohungen aus dem Verborgenen 

Doch selbst während Unternehmen ihre Abwehrmaßnahmen ausbauen, entsteht innerhalb der eigenen Netzwerke eine neue, weitgehend selbst verursachte Gefahr: sogenannte Shadow AI. In den meisten Organisationen nutzen Mitarbeitende generative KI-Tools, um Berichte zusammenzufassen, Code zu schreiben oder Kundendaten zu analysieren. Häufig passiert dies jedoch ohne offizielle Genehmigung oder wirksame Regeln zur Daten- und Governance-Kontrolle. Einem Bericht von Netskope zufolge setzen inzwischen rund 90 Prozent der Unternehmen GenAI-Anwendungen ein, und mehr als 70 Prozent dieser Tools fallen in den Bereich der Shadow-IT. Jeder nicht überwachte Prompt und jedes ungeprüfte Plug-in kann so zu einem potenziellen Abfluss sensibler Daten werden. 

Interne Analysen aus der gesamten Branche deuten darauf hin, dass nahezu 45 Prozent des KI-bezogenen Netzwerkverkehrs sensible Informationen enthalten, von geistigem Eigentum bis hin zu Kundendaten. Parallel dazu breiten sich KI-gestützte Bots rasant aus: Innerhalb von nur sechs Monaten hat sich der Bot-Traffic im Zusammenhang mit Datenscraping und automatisierten Anfragen vervierfacht. Während KI intelligentere und schnellere Abläufe verspricht, verarbeitet sie zugleich immer größere Mengen vertraulicher Daten. Dadurch wächst nicht nur das zu Volumen schützenswerter Daten, sondern auch das potenzielle Schadensausmaß. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Ein Sicherheitsgurt für KI 

Regierungen und Aufsichtsbehörden beginnen langsam, das Ausmaß dieser Herausforderung zu erkennen. Viele Regelwerke zur KI-Governance weisen bereits in eine Zukunft, in der Unternehmen die Einhaltung von Vorschriften und gleichzeitig auch eine kontinuierliche Transparenz über ihre KI-Systeme nachweisen müssen. Sicherheitsstrategien werden künftig Aspekte wie Modelltraining, Datenherkunft und das Verhalten autonomer Agenten berücksichtigen müssen. Das beschränkt sich nicht mehr allein auf Netzwerkverkehr oder Zugriffsprotokolle. Für viele Organisationen bedeutet das, Sicherheit direkt in die Entwicklungspipeline zu integrieren, Zero-Trust-Architekturen einzuführen und KI-Modelle als „lebende“ Assets zu behandeln, die fortlaufend überwacht werden müssen. 

Mit Blick nach vorn zeichnen sich die Frontlinien bereits neu ab. Die nächste Phase der Cybersicherheit ist bestimmt von einem doppelten Antrieb: KI-Systeme müssen geschützt und KI zugleich zur Erkennung und Neutralisierung von Bedrohungen eingesetzt werden. Mit der Weiterentwicklung von Machine-Learning-Modellen müssen auch die sie umgebenden Schutzmechanismen Schritt halten. Statische Regeln und manuelle Reaktionen können mit Angreifern, die Geschwindigkeit und Automatisierung kreativ ausnutzen, nicht mehr mithalten. Gefragt ist ein Ökosystem, das ebenso schnell lernt, wie es verteidigt. 

Dieser Wandel ist bereits im Gange. Multi-Agenten-Sicherheitsplattformen koordinieren heute Erkennung, Priorisierung und Wiederherstellung über Milliarden täglicher Ereignisse hinweg. Schlanke, domänenspezifische Modelle filtern das Rauschen heraus, während größere, auf Schlussfolgerungen ausgelegte Modelle bislang unbekannte Angriffsmuster identifizieren. So entsteht eine Intelligence-Pipeline, die der der Angreifer gleicht. Der entscheidende Unterschied liegt darin, dass sie für die Verteidigung entwickelt wurde. 

Intelligenz im Einsatz 

Die Zukunft der digitalen Sicherheit hängt maßgeblich von der Zusammenarbeit zwischen menschlicher Urteilskraft und maschineller Intuition ab. Praktisch bedeutet das ebenso sehr eine Neuqualifizierung der Belegschaft wie eine Neugestaltung der Infrastruktur. Gefragt sind Analystinnen und Analysten, die KI-Ergebnisse einordnen können, Data Scientists mit einem tiefen Verständnis für Risiken sowie politische Entscheidungsträger, die durch Transparenz Vertrauen schaffen. Langfristig geht es nicht nur um Resilienz, sondern genau um dieses Vertrauen, dass die Systeme, die unser modernes Leben antreiben, lernen, sich selbst zu schützen. 

Denn letztlich ist KI nicht der Bösewicht dieser Geschichte. Dieselben Algorithmen, die Angriffe wirkungsvoller machen, können auch den Schutz präziser gestalten. Für Führungskräfte weltweit stellt sich daher die entscheidende Frage, ob sie schnell genug investieren werden, damit Intelligenz – und nicht Trägheit – das nächste Kapitel der Cybersicherheit bestimmt.  

Autor: Ouyang Xin, General Manager für Sicherheitsprodukte bei Alibaba Cloud Intelligence

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.