Unternehmen auf der ganzen Welt setzen zunehmend auf Künstliche Intelligenz (KI), denn sie sorgt für teils erhebliche Effizienzsteigerungen. Gleichzeitig nutzen Hacker sie, um ihre Angriffe raffinierter zu gestalten, zu skalieren oder zu automatisieren.
Infolgedessen steht die Cyber-Sicherheit vor einem Wendepunkt, an dem KI gegen KI kämpft. Die Phishing-Betrügereien und Deepfakes von heute sind nur die Vorboten einer kommenden Ära autonomer, sich selbst optimierender KI-Bedrohungsakteure. Das sind Systeme, die Angriffe ohne oder mit nur begrenzter menschlicher Aufsicht planen, ausführen und verfeinern können.
Unsere Sicherheitsforscher stellten im September 2025 fest, dass jede 54. GenAI-Anfrage aus Unternehmensnetzwerken ein hohes Risiko für die Offenlegung sensibler Daten darstellte. Davon waren 91 Prozent der Unternehmen betroffen, die regelmäßig KI-Tools einsetzen.
Diese Statistiken zeigen, dass KI nicht nur die Produktivität neu definiert, sondern auch die Regeln für Cyberrisiken neu schreibt.
Die wachsende Angriffsfläche von KI: Vier kritische Bedrohungsvektoren, die Unternehmen berücksichtigen müssen
Da KI und generative KI zunehmend in moderne Geschäftsabläufe integriert werden, verändern sie auch die Cyber-Bedrohungslandschaft. Angreifer verlassen sich nicht mehr ausschließlich auf traditionelle Tools, sondern integrieren KI in ihre Taktiken, Techniken und Verfahren, um skalierbarere, anpassungsfähigere und ausgefeiltere Kampagnen zu starten. Die folgenden vier Vektoren zeichnen sich bereits im heutigen KI-Ökosystem ab und stellen einige der dringlichsten Sicherheitsaspekte für Unternehmen im Jahr 2025 und darüber hinaus dar.
1. Autonome KI-Angriffe: Maschinengesteuerte Bedrohungskampagnen
Cyber-Kriminelle experimentieren zunehmend mit autonomen, KI-gesteuerten Angriffen, bei denen Maschinenagenten unabhängig voneinander mehrstufige Kampagnen planen, koordinieren und ausführen. Diese KI-Systeme tauschen Informationen aus, passen sich in Echtzeit an Abwehrmaßnahmen an und arbeiten über Tausende von Endpunkten hinweg zusammen. Sie funktionieren wie selbstlernende Bot-Netze, ohne menschliche Aufsicht.
Aktuelle Beispiele, wie die Prototypen von ReaperAI, zeigen, wie autonome KI die Aufklärung, Ausnutzung und Datenexfiltration zu einem nahtlosen Vorgang verknüpfen kann. Diese maschinengesteuerte Entwicklung stellt eine große Herausforderung für Security Operations Center (SOC) dar. Sie laufen Gefahr, von einer Flut adaptiver, selbstorganisierter Angriffe überwältigt zu werden. Diese generieren Tausende von Warnmeldungen, testen Richtlinien und ändern Taktiken in Echtzeit.
2. Adaptive Malware-Erstellung: Sich selbst entwickelnder Schad-Code
Im Jahr 2024 begannen mehrere Untergrundforen damit, „KI-Malware-Generatoren“ zu bewerben. Diese sind in der Lage, bösartigen Code automatisch zu schreiben, zu testen und zu debuggen. Diese Tools verwenden Rückkopplungsschleifen, um zu lernen, welche Varianten die Erkennung umgehen, und machen so jeden fehlgeschlagenen Versuch zum Treibstoff für den nächsten Erfolg.
Der Einsatz von KI-generierter, polymorpher Malware verändert die Art und Weise, wie Angreifer bösartige Software erstellen und einsetzen. Während herkömmliche Malware auf geringfügige Code-Änderungen angewiesen war, um die Erkennung zu umgehen, können moderne generative Modelle – von GPT-4o bis hin zu Open-Source-LLMs – nun in Sekundenschnelle einzigartige, funktionsfähige Malware-Varianten produzieren.
3. Synthetische Insider-Bedrohungen: KI-gestützte Identitätsfälschung und Social Engineering
Die Insider-Bedrohung entwickelt sich mit dem Aufkommen synthetischer Identitäten und KI-generierter Persönlichkeiten rasant weiter. Diese KI-Agenten, die aus gestohlenen Mitarbeiterdaten, Sprachproben und internen Nachrichten erstellt werden, können echte Benutzer überzeugend imitieren – sie versenden authentisch wirkende E-Mails, nehmen mit gefälschten Stimmen an Videoanrufen teil und infiltrieren Kollaborationsplattformen mit präzisen Sprach- und Verhaltensmustern.
Jüngste Fälle von Vibe Hacking haben gezeigt, wie Angreifer ihre Social-Engineering-Ziele direkt in KI-Konfigurationen eingebettet haben, sodass Bots autonom verhandeln, täuschen und bestehen können. Da KI-Stimmklone mittlerweile nicht mehr von echten Stimmen zu unterscheiden sind, wird sich die Identitätsprüfung von der Frage, wer eigentlich spricht, hin zu der Frage verlagern, wie konsistent das Verhalten der Person ist – eine grundlegende Veränderung in digitalen Vertrauensmodellen.
4. KI-Lieferkette und Modellvergiftung
Die rasche Einführung von KI-Modellen von Drittanbietern und Open-Source-Modellen hat eine riesige neue Angriffsfläche geschaffen: die KI-Lieferkette. Bereits im Jahr 2025 demonstrierten mehrere Forschungslabore Datenvergiftungsangriffe. Dabei könnte eine Veränderung von nur 0,1 Prozent der Schulungsdaten eines Modells zu einer gezielten Fehlklassifizierung führen. Ein Beispiel hierfür ist, dass ein KI-Bildverarbeitungssystem angewiesen wird, ein Stoppschild fälschlicherweise als Geschwindigkeitsbegrenzungsschild zu identifizieren.
Warum diese KI-Bedrohungen anders sind
KI-gesteuerte Cyber-Angriffe kombinieren Geschwindigkeit, Autonomie und Intelligenz in einem Ausmaß, das für menschliche Angreifer nicht erreichbar ist.
Im Gegensatz zu herkömmlichen Bedrohungen lernen maschinengenerierte Angriffe kontinuierlich dazu und passen sich an. Jeder fehlgeschlagene Angriff wird zu Trainingsdaten, wodurch ein sich selbst verbesserndes Bedrohungsökosystem entsteht, das sich schneller entwickelt als herkömmliche Abwehrmaßnahmen. Unsere Sicherheitsforscher haben herausgefunden, dass KI-gesteuerte Tools, wie das ursprünglich für Red-Team-Tests entwickelte Hexstrike-AI-Framework, innerhalb weniger Stunden als Waffe eingesetzt wurden, um Citrix NetScaler Zero-Days auszunutzen.
Diese Angriffe arbeiten zudem mit beispielloser Präzision. Generative KI ermöglicht personalisiertes Phishing, mehrsprachige Deepfakes und synthetische Insider-Persönlichkeiten, die Tonfall und Verhalten so gut imitieren, dass sie sowohl menschliche Verdachtsmomente als auch automatisierte Filter umgehen können. Gleichzeitig entfernt die KI-Ausführung menschliche Fingerabdrücke wie Tippfehler, Zeitzonenmuster oder sprachliche Spuren. Dadurch werden die Zuordnung und Erkennung zunehmend schwieriger.
Schließlich demokratisiert KI die Cyber-Kriminalität. Tools, die das Scannen, Ausnutzen und Verhandeln automatisieren, senken die Hürden für weniger erfahrene Angreifer und erweitern die Bedrohungslandschaft. Bis 2030 werden Ransomware und Datendiebstahl fast ausschließlich von autonomen KI-Systemen orchestriert, die ohne menschliche Aufsicht rund um die Uhr operieren können.
Wie Unternehmen sich vorbereiten sollten
Die mit KI-gesteuerten Bedrohungen verbundenen Gefahren sind echt. Das bedeutet jedoch nicht, dass Unternehmen auf Vibe Coding, KI-gestützte Entwicklung oder generative KI-Tools verzichten sollten. Ähnlich wie in den Anfängen der Cloud-Migration oder der Umstellung auf hybrides Arbeiten besteht die Herausforderung nun darin, zu lernen, wie KI sicher eingesetzt werden kann, ohne neue Schwachstellen zu schaffen.
Um Risiken zu reduzieren und langfristige Widerstandsfähigkeit aufzubauen, sollten Unternehmen folgende fünf Kernstrategien verfolgen:
1. Sicherheitsbewusst die KI-Tools auswählen und sinnvoll einsetzen
Die Auswahl von KI-Plattformen, die nach dem Prinzip Sicherheit zuerst entwickelt oder konfiguriert wurden, ist entscheidend. Außerdem sollte die Funktionsweise von Large Language Models (LLMs) so gestaltet werden, dass sie Prompts enthalten, die sich auf Validierung, Verschlüsselung und sichere Standardeinstellungen beziehen, damit sichere Praktiken von Anfang an integriert sind. Stets sollten die Daten beschränkt werden, die man KI-Tools zugänglich macht, und sensible Dateien, Anmeldedaten oder Produktionsdatensätze müssen außer Reichweite bleiben. Wenn Tests erforderlich sind, verwendet man am besten bereinigte oder synthetische Daten und überprüft die Berechtigungen, um sicherzustellen, dass die KI nur auf die Daten zugreift, die sie benötigt.
2. Zero Trust für KI
Das Prinzip der Geringsten Privilegien für den Zugriff auf KI-Systeme sollte angewendet werden, damit jeder API-Aufruf authentifiziert wird. Hierfür sollte man eine kontinuierliche Verifizierung durchsetzen und die Interaktionen zwischen KI-Systemen überwachen, um laterale Bewegungen zu verhindern. Der gesamte von KI generierte Code sollte vor der Bereitstellung einer Peer-Review unterzogen, getestet und auf Schwachstellen überprüft werden. Die menschliche Überwachung stellt sicher, dass die Anforderungen an Logik, Sicherheit und Compliance ordnungsgemäß erfüllt werden und hilft dabei, Warnsignale zu erkennen.
3. Lieferkette und Abhängigkeiten bedenken
KI kann zwar die Entwicklung beschleunigen, birgt jedoch auch neue Risiken durch Bibliotheken, Plug-ins und Code-Vorschläge von Drittanbietern. Jede neue Abhängigkeit sollte daher bis zur Überprüfung als nicht vertrauenswürdig behandelt werden. Das Überprüfen der Quellen vor der Integration ist daher wichtig, sowie die das Kontrollieren der Reputation und das Durchführen von Sicherheits-Scans. Eine robuste Sicherheit der Lieferkette ist unerlässlich, da KI-gestützte Codierungstools die Verfolgung von Abhängigkeiten erschweren können.
4. Sicherheit während des gesamten Entwicklungslebenszyklus automatisieren und integrieren
DevSecOps muss zu einem festen Bestandteil der KI-Strategie gemacht werden. Automatisieren der Sicherheitsüberprüfungen in der CI/CD-Pipeline sind wichtig, um unsicheren Code, offengelegte Geheimnisse und Fehlkonfigurationen zu erkennen, bevor sie in die Produktion gelangen. Kombiniert man das mit automatisierten Schutzmaßnahmen und kontinuierlicher Schulung für Entwickler, Analysten und Geschäftsleute, ist man auf der sicheren Seite. So kann jeder die Grundlagen, wie Eingabevalidierung, Zugriffskontrolle und der sichere Umgang mit Daten, verstehen.
5. Unternehmensweit regulierte Nutzung von GenAI
Die unkontrollierte Nutzung von KI-Tools ist eine zunehmende Quelle für Datenlecks. Laut der CPR-Studie zu Cyber-Angriffen aus dem September 2025 enthielten 15 Prozent der KI-Eingaben in Unternehmen potenziell sensible Informationen, wie Kundendaten und proprietären Code.
Fazit: Resilienz für das KI-Zeitalter aufbauen
Der Wettlauf um KI ist in vollem Gange und die steigende Anzahl an GenAI-Datenlecks zeigen, wie schnell Automatisierung die Risiken für Unternehmen weltweit neu definiert. Mit Blick auf die Zukunft wird sich die Entwicklung der KI nicht nur beschleunigen, sondern auch grundlegend festlegen, wie Unternehmen ihre digitale Zukunft sichern.
Von synthetischen Insidern, die sich als Mitarbeiter ausgeben, bis hin zu adaptiver Malware, die ihren eigenen Code umschreibt, verändert sich die Bedrohungslandschaft rasant. Um vorne zu bleiben, müssen Unternehmen Feuer mit Feuer bekämpfen. Präventionsorientierte, KI-gestützte, cloud-basierte Plattformen sind unverzichtbar. Sie integrieren prädiktive Analysen, Verhaltensintelligenz und autonome Abhilfemaßnahmen, um Bedrohungen zu stoppen, bevor sie auftreten. Sicherheit muss sich von reaktiven Tools zu KI-gestützten, präventiven Plattformen entwickeln, die Angriffe vorhersagen und verhindern. Dabei müssen sie bedrohungsbezogene Informationen, autonome Abhilfemaßnahmen und kontinuierliche Governance integrieren.
Die Zukunft der Cybersicherheit gehört denen, die diese plattformorientierte Denkweise verinnerlichen, indem sie Transparenz und Kontrolle über die gesamte digitale Infrastruktur konsolidieren und die Prinzipien von Zero Trust und Secure by Design in jeder Ebene verankern.
Besonders während des Cybersecurity Awareness Month sollten Unternehmen das Bewusstsein für die Vorteile und Risiken von KI schärfen und ihre Mitarbeiter und Infrastruktur auf eine Welt vorbereiten, in der Prävention, Automatisierung und Intelligenz die nachhaltigen Strategien sind. Wer jetzt handelt, kann KI von einem Risiko in einen entscheidenden Vorteil verwandeln und digitale Resilienz für das kommende Jahrzehnt aufbauen.