Wenn KI zur Waffe wird

Achtung, Manipulation – So missbrauchen Cyberkriminelle die KI

Ki-Gefahr

Künstliche Intelligenz ist längst nicht mehr nur ein Werkzeug zur Automatisierung und Effizienzsteigerung in Unternehmen. Die gleichen Technologien, die Geschäftsprozesse optimieren, werden zunehmend von Cyberkriminellen missbraucht.

Laut NTT DATA zeigen sich die aktuellen Bedrohungen besonders in Form von manipulativen Datenangriffen, gezielten Phishing-Attacken und manipulierter KI-Ausgabe.

Anzeige

Data Poisoning: Sabotage auf Datenebene

Eine der subtilsten Methoden ist das sogenannte Data Poisoning. Dabei manipulieren Angreifer Trainings- oder Validierungsdaten, um KI-Modelle fehlzuleiten. Ein Spamfilter kann plötzlich gefährliche Inhalte nicht mehr erkennen, oder Anomalieerkennungssysteme stufen auffällige Vorgänge fälschlich als „normal“ ein. Hinweise auf solche Angriffe sind etwa plötzliche Qualitätsverluste oder statistische Auffälligkeiten in Datensätzen. Gegenmaßnahmen umfassen strenge Kontrolle von Datenherkunft und -versionen, regelmäßige Integritätsprüfungen und kontinuierliche Validierung der Modelle.

Prompt Injection: Täuschung direkt im Modell

Prompt Injection greift speziell KI-gestützte Anwendungen wie Chatbots oder digitale Assistenten an. Angreifer versuchen, über gezielte Eingaben die ursprünglichen Anweisungen der KI zu umgehen, um vertrauliche Informationen auszuspähen oder unbefugte Aktionen auszulösen. Schutz bieten mehrstufige Maßnahmen: sorgfältige Eingabevalidierung, restriktive Zugriffsrechte, Ausgabefilter und Freigabeprozesse bei sicherheitsrelevanten Funktionen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Deepfakes, Phishing und Social Engineering

Moderne KI-Generatoren für Text, Sprache oder Bilder erhöhen die Gefahr personalisierter Angriffe. So geben sich Täter beim Pretexting als Kollegen oder IT-Mitarbeiter aus, um sensible Daten wie Zugangsdaten zu erlangen. Scareware nutzt gefälschte Warnungen, um Nutzer zu überstürzten Handlungen zu verleiten, etwa bei CEO-Fraud oder unautorisierten Zahlungen. Der Erfolg solcher Angriffe steigt, weil KI-gestützte Inhalte oft stilistisch perfekt und inhaltlich präzise wirken. Schutzmaßnahmen sind hier Mitarbeiterschulungen, feste Identitätsprüfungen bei kritischen Vorgängen und der Einsatz technischer Tools zur Erkennung manipulierten Materials.

Anzeige

Adversarial Examples: Täuschung auf der technischen Ebene

Adversarial Examples verändern Daten so minimal, dass Menschen die Manipulation oft nicht bemerken, KI-Modelle aber falsche Entscheidungen treffen. Dies kann industrielle Sensorik oder Bilderkennungssysteme stören. Schutz lässt sich durch gezieltes Nachtrainieren, zusätzliche Validierungsschritte und die Nutzung kombinierter Datenquellen erreichen.

KI in Malware und Threat Intelligence

Auch die Entwicklung von Schadsoftware profitiert von KI: Programme lassen sich schneller variieren, gezielt anpassen und im Vorfeld gegen Erkennungssysteme testen. Klassische signaturbasierte Abwehr reicht nicht mehr aus. Effektive Verteidigung setzt auf verhaltensbasierte Analysen, Sandboxing, automatisierte Threat-Intelligence-Prozesse und schnelle Patch-Zyklen.

Ganzheitlicher Schutz ist entscheidend

„KI ist ein Werkzeug – und wie jedes Werkzeug kann es sinnvoll genutzt oder missbraucht werden. Entscheidend ist, dass Unternehmen ihre Modelle, Datenpipelines und Betriebsprozesse genauso gut absichern wie klassische IT-Komponenten“, betont Christian Koch. Nur ein ganzheitlicher Ansatz aus Governance, technischen Maßnahmen und Prozessen schützt Unternehmen davor, dass KI selbst zum Einfallstor für Cyberangriffe wird.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.