Vom Risiko zur Resilienz 

KI und Cybersicherheit: Das neue Fundament organisatorischer Resilienz

Ki-Security

Künstliche Intelligenz ist sowohl zum Ziel als auch zum Werkzeug der Cybersicherheit geworden. Angreifer nutzen mittlerweile intelligente Systeme, um Eindringversuche zu skalieren und zu verschleiern.

Verteidiger setzen auf dieselbe Technologie, um Angriffe schneller zu erkennen und darauf zu reagieren. Im Fokus steht das Gleichgewicht zwischen Innovation und Kontrolle – und wie dieses die digitale Widerstandsfähigkeit in den kommenden Jahren prägen wird.

Anzeige

Die sich wandelnde Natur von Cyberrisiken  

KI definiert die Bedrohungslandschaft in großem Maßstab neu. Der weltweite Markt für KI in der Cybersicherheit wird voraussichtlich im Jahr 2025 26 Milliarden Euro überschreiten und bis 2030 rund 80 Milliarden Euro erreichen. Durch die Integration von KI-Systemen in alle Bereiche der Geschäftstätigkeit entstehen neue Schwachstellen durch Modellmanipulation, Datenkorruption und den Missbrauch von Open-Source-Code.  

Ein aktueller Bericht von Arctic Wolf ergab, dass 29 % der Sicherheitsexperten weltweit KI mittlerweile als ihre oberste Priorität betrachten und damit erstmals Ransomware vom ersten Platz verdrängen.93 % der deutschen Unternehmen geben an, dass sie erwarten, dass KI in den kommenden Jahren die Cyberrisiken erhöhen wird. Irische Unternehmen spiegeln die gleiche Einstellung wider, die auch im Hiscox Cyber Readiness Report 2025 hervorgehoben wird. Demnach betrachten sechs von zehn Unternehmen den Missbrauch von KI als ein hohes Risiko für die nächsten fünf Jahre. Da Irland weiterhin ein Magnet für globale Technologieunternehmen ist, wird erwartet, dass das Risiko durch KI-gesteuerte Angriffe steigen wird.  

Die doppelte Rolle intelligenter Systeme 

Die Symmetrie zwischen Angriff und Verteidigung in der KI-gesteuerten Cybersicherheit ist auffällig. Die gleichen Fähigkeiten, die KI für Unternehmen nützlich machen, werden heute von Angreifern genutzt. Forscher stellten zwischen 2023 und 2025 einen Anstieg von 223 % auf dem Marktplatz der Dark-Web-Foren für den Handel mit Deepfake-basierten Tools fest. Algorithmen für maschinelles Lernen können heute Stimmklone und Phishing-Materialien erstellen, die Malware imitieren, wodurch herkömmliche musterbasierte Erkennungsmethoden unwirksam werden.  

Anzeige

KI ermöglicht jedoch auch eine schnellere und intelligentere Verteidigung. 74 % der deutschen Unternehmen nutzen KI-gestützte Tools für Cybersecurity; weltweit sind es 81 %. In Sicherheitszentralen nutzen 57 % der Analysten KI, um Warnmeldungen schnell zu klären, 56 % geben an, dass sie damit Bedrohungen besser priorisieren können, und mehr als die Hälfte nutzt KI für präventive Sicherheitsmaßnahmen. Predictive Analytics und Anomalieerkennung verändern die Art und Weise, wie Unternehmen mit Risiken umgehen und Sicherheitsverletzungen eindämmen.

Die menschliche Aufsicht bleibt der wichtigste Schutz. Erklärbare KI ist das Mittel, mit dem automatisierte Entscheidungen überprüft werden können und auf das man sich verlassen kann. In Deutschland arbeitet Fraunhofer AISEC mit dem Projekt SuKI daran, KI und IT-Sicherheit zu verknüpfen: Ziel sind u.a. robuste Modelle, Anomalieerkennung, Erkennung von Deepfakes, Schutz eingebetteter KI-Systeme und generell KI-gestützte Sicherheitstechnologien.

Das AI Accountability Lab des Trinity College Dublin und CeADAR, Irlands nationales Zentrum für KI, sind führend in der Forschung zur Entwicklung von Modellen für maschinelles Lernen, die verständlich und widerstandsfähig gegen Manipulationen sind. Sie spiegeln die zunehmende Bedeutung Irlands bei der Schaffung ethischer und sicherer KI-Systeme wider, die weltweit in der Industrie eingesetzt werden können. Diese Entwicklungen zeigen: Der Bedarf an erklärbarer, manipulationsresistenter und sicherheitsorientierter KI wächst und wird zentral für moderne Cyberresilienz. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die Zukunft durch Vertrauensbildung und Verantwortlichkeit regulieren 

Das EU-Gesetz über künstliche Intelligenz legt strenge Anforderungen in Bezug auf Transparenz, Risikokategorisierung und Cybersicherheit fest. Unternehmen sind nun verpflichtet, zu dokumentieren, wie ihre KI-Systeme trainiert und getestet wurden, um sicherzustellen, dass sie ein angemessenes Maß an Zuverlässigkeit und menschlicher Kontrolle aufweisen. 

Irland ist einer der ersten EU-Mitgliedstaaten, das vollständig auf die Durchsetzung vorbereitet ist, und hat 15 Behörden benannt, die für die Überprüfung der Einhaltung zuständig sein werden. Dank dieses vorausschauenden Ansatzes ist Irland als Regulierungsbehörde ein Maßstab im Binnenmarkt, insbesondere für Unternehmen, die ihre europäischen Hauptsitze in Dublin haben. Die Vorstände beginnen bereits zu erkennen, dass das Risikomanagement im Bereich der KI keine technische Frage ist, sondern eine Frage der Unternehmensführung. Die in die Audit- und Compliance-Infrastrukturen eingebettete KI-Aufsicht wird in naher Zukunft ebenso zum Standard gehören wie die Datenschutzberichterstattung. 

Der nationale Cybersicherheitsgesetzentwurf, der die NIS2-Richtlinie der EU umsetzen wird, verspricht eine engere Abstimmung zwischen KI und Cybersicherheits-Governance und schafft damit einen einheitlicheren Rahmen für Regulierungsbehörden, Industrie und Wissenschaft. Nationale Initiativen wie das National Cyber Security Centre (NCSC) und Cyber Ireland spielen dabei eine zentrale Rolle. Cyber Ireland, das über 500 Unternehmen und Forschungseinrichtungen vereint, wird durch diese legislative Klarheit in seiner Arbeit gestärkt und versetzt Unternehmen in die Lage, innovativ zu sein, zu wachsen und die Compliance-Standards zu erfüllen. Zusammen fördern diese Initiativen Innovation und digitale Resilienz und sorgen dafür, dass das Land an der Spitze der globalen Cybersicherheits- und KI-Landschaft bleibt.

Vom Risiko zur Resilienz 

Um KI-gesteuerte Bedrohungen zu bewältigen, benötigen Unternehmen systematische Ansätze zur Bekämpfung. Zunächst müssen sie KI-Bedrohungsmodelle in die Softwaresicherheit integrieren und entscheiden, wie die maschinellen Lernsysteme getäuscht oder angegriffen werden könnten. Anschließend müssen Organisationen eine Zero-Trust-Architektur mit erklärbarer KI kombinieren, jede Zugriffsanfrage überprüfen und sicherstellen, dass jede KI-gestützte Entscheidung nachvollziehbar und auditierbar ist.  

Letztendlich sollten Fähigkeiten und Zusammenarbeit als strategische Prioritäten betrachtet werden. Kontinuierliche Schulungen im Bereich KI-Sicherheit, unterstützt durch Partnerschaften zwischen Industrie und Hochschulen, werden für die Gewährleistung der Widerstandsfähigkeit von entscheidender Bedeutung. In Irland gibt es bereits Beispiele dafür in der Praxis. Das Tyndall National Institute beschäftigt sich mit der Entwicklung von KI-Sicherheits- und Photonik-Technologien, die die Erkennung von Bedrohungen verbessern und den Datenschutz gewährleisten. In Deutschland zeigt sich eine ähnliche Entwicklung: Das Forschungszentrum ATHENE in Darmstadt – Europas größtes Kompetenzzentrum für Cybersicherheit – arbeitet intensiv an sicheren und robusten KI-Systemen, etwa in den Bereichen adversarial machine learning, KI-gestützte Bedrohungserkennung und Schutz cyber-physischer Systeme. Initiativen und Forschungen dieser Art stärken die Standortattraktivität und fördern, dass sichere digitale Innovation und praxisnahe Kompetenzentwicklung Hand in Hand gehen. 

Vorbereitung auf die nächste Phase der Cybersicherheit 

In den kommenden Jahren ist mit einer Beschleunigung des Cyber-Wettrüstens zu rechnen. Offensive KI-Modelle werden schneller lernen und sich autonom anpassen, um Schwachstellen auszunutzen, bevor menschliche Verteidiger reagieren können. Als Reaktion auf diese Fortschritte werden innovative Verteidigungsparadigmen durch agentenbasierte KI-Systeme entwickelt, die unabhängig voneinander arbeiten, um Bedrohungen in Echtzeit zu identifizieren und zu neutralisieren. In der Folge beginnen Unternehmen, sich auf quantensichere Kryptografie vorzubereiten, um dem bevorstehenden Sprung im Bereich der Rechenrisiken zuvorzukommen.   

Die langfristige Widerstandsfähigkeit wird davon abhängen, wie Unternehmen ein Gleichgewicht zwischen Verantwortlichkeit und Automatisierung finden. Künstliche Intelligenz wird menschliche Verteidiger nicht ersetzen, sondern eine intelligentere Interaktion zwischen Menschen und Maschinen erfordern. Irlands wachsender Pool an Fachwissen in den Bereichen Cybersicherheit und KI ist einzigartig positioniert, um eine führende Rolle in Europa bei der Herstellung dieses Gleichgewichts zu übernehmen. Unternehmen, die in Governance, Kompetenzen und klare KI-Systeme investieren, werden den Maßstab für die Innovationen des nächsten Jahrzehnts setzen.  

Conor Sheehy IDA Ireland

Conor

Sheehy

Vice President Germany & Northern Europe

IDA Ireland

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.