Künstliche Intelligenz ist längst nicht mehr nur ein Werkzeug zur Automatisierung und Effizienzsteigerung in Unternehmen. Die gleichen Technologien, die Geschäftsprozesse optimieren, werden zunehmend von Cyberkriminellen missbraucht.
Laut NTT DATA zeigen sich die aktuellen Bedrohungen besonders in Form von manipulativen Datenangriffen, gezielten Phishing-Attacken und manipulierter KI-Ausgabe.
Data Poisoning: Sabotage auf Datenebene
Eine der subtilsten Methoden ist das sogenannte Data Poisoning. Dabei manipulieren Angreifer Trainings- oder Validierungsdaten, um KI-Modelle fehlzuleiten. Ein Spamfilter kann plötzlich gefährliche Inhalte nicht mehr erkennen, oder Anomalieerkennungssysteme stufen auffällige Vorgänge fälschlich als „normal“ ein. Hinweise auf solche Angriffe sind etwa plötzliche Qualitätsverluste oder statistische Auffälligkeiten in Datensätzen. Gegenmaßnahmen umfassen strenge Kontrolle von Datenherkunft und -versionen, regelmäßige Integritätsprüfungen und kontinuierliche Validierung der Modelle.
Prompt Injection: Täuschung direkt im Modell
Prompt Injection greift speziell KI-gestützte Anwendungen wie Chatbots oder digitale Assistenten an. Angreifer versuchen, über gezielte Eingaben die ursprünglichen Anweisungen der KI zu umgehen, um vertrauliche Informationen auszuspähen oder unbefugte Aktionen auszulösen. Schutz bieten mehrstufige Maßnahmen: sorgfältige Eingabevalidierung, restriktive Zugriffsrechte, Ausgabefilter und Freigabeprozesse bei sicherheitsrelevanten Funktionen.
Deepfakes, Phishing und Social Engineering
Moderne KI-Generatoren für Text, Sprache oder Bilder erhöhen die Gefahr personalisierter Angriffe. So geben sich Täter beim Pretexting als Kollegen oder IT-Mitarbeiter aus, um sensible Daten wie Zugangsdaten zu erlangen. Scareware nutzt gefälschte Warnungen, um Nutzer zu überstürzten Handlungen zu verleiten, etwa bei CEO-Fraud oder unautorisierten Zahlungen. Der Erfolg solcher Angriffe steigt, weil KI-gestützte Inhalte oft stilistisch perfekt und inhaltlich präzise wirken. Schutzmaßnahmen sind hier Mitarbeiterschulungen, feste Identitätsprüfungen bei kritischen Vorgängen und der Einsatz technischer Tools zur Erkennung manipulierten Materials.
Adversarial Examples: Täuschung auf der technischen Ebene
Adversarial Examples verändern Daten so minimal, dass Menschen die Manipulation oft nicht bemerken, KI-Modelle aber falsche Entscheidungen treffen. Dies kann industrielle Sensorik oder Bilderkennungssysteme stören. Schutz lässt sich durch gezieltes Nachtrainieren, zusätzliche Validierungsschritte und die Nutzung kombinierter Datenquellen erreichen.
KI in Malware und Threat Intelligence
Auch die Entwicklung von Schadsoftware profitiert von KI: Programme lassen sich schneller variieren, gezielt anpassen und im Vorfeld gegen Erkennungssysteme testen. Klassische signaturbasierte Abwehr reicht nicht mehr aus. Effektive Verteidigung setzt auf verhaltensbasierte Analysen, Sandboxing, automatisierte Threat-Intelligence-Prozesse und schnelle Patch-Zyklen.
Ganzheitlicher Schutz ist entscheidend
„KI ist ein Werkzeug – und wie jedes Werkzeug kann es sinnvoll genutzt oder missbraucht werden. Entscheidend ist, dass Unternehmen ihre Modelle, Datenpipelines und Betriebsprozesse genauso gut absichern wie klassische IT-Komponenten“, betont Christian Koch. Nur ein ganzheitlicher Ansatz aus Governance, technischen Maßnahmen und Prozessen schützt Unternehmen davor, dass KI selbst zum Einfallstor für Cyberangriffe wird.