Künstliche Intelligenz im Fadenkreuz

KI-Modelle: Diese Angriffsszenarien sollten Unternehmen kennen

KI-Fahndung

Mit dem rasanten Einzug künstlicher Intelligenz in Unternehmen wächst auch die Gefahr, dass Angreifer nicht nur klassische IT-Systeme, sondern die KI-Modelle selbst attackieren.

Dell Technologies hat die gängigsten Methoden aufgezeigt, mit denen Cyberkriminelle Schwachstellen ausnutzen – und welche Schutzmaßnahmen Unternehmen berücksichtigen sollten.

Anzeige

KI-Modelle sind das Ergebnis intensiver Entwicklungsarbeit und hoher Investitionen. Für Angreifer ist es daher attraktiv, diese Modelle direkt ins Visier zu nehmen. Die Bedrohungen reichen von Datendiebstahl bis zur Manipulation von Eingaben oder Trainingsdaten.

Typische Angriffsszenarien

  • Modelldiebstahl: Durch massenhafte Abfragen können Informationen über Struktur und Verhalten eines Modells gewonnen und zum Nachbau genutzt werden.
  • Data Poisoning: Manipulierte Trainingsdaten schwächen die Genauigkeit oder bauen absichtlich Hintertüren ein.
  • Model Inversion: Angreifer rekonstruieren aus den Antworten einer KI Teile der Trainingsdaten, darunter auch vertrauliche Informationen.
  • Perturbation-Angriffe: Kleine Veränderungen an Eingabedaten führen zu Fehlklassifikationen oder falschen Vorhersagen.
  • Prompt Injection: Mit gezielt formulierten Eingaben bringen Kriminelle die KI zu unerwünschtem Verhalten oder geben ihr interne Daten preis.
  • Rewards Hacking: Beim Reinforcement Learning kann das Belohnungssystem manipuliert werden, sodass die KI fehlerhafte Strategien erlernt.
  • DoS und DDoS: Überlastungsangriffe legen Systeme lahm oder beeinträchtigen deren Leistung erheblich.
  • Kompromittierung der Lieferkette: Unsichere Software-Bibliotheken oder vortrainierte Modelle von Drittanbietern können zum Einfallstor werden.

Schutz beginnt beim Design

Dell-Experte Christian Scharrer betont, dass Sicherheitsmaßnahmen für KI weit über klassische Kontrollen hinausgehen müssen. Neben Zugriffsbeschränkungen und Verschlüsselung sind unter anderem folgende Punkte entscheidend:

  • Validierung und Bereinigung von Trainings- und Input-Daten
  • Einsatz von Guardrails, die Eingaben und Ausgaben überwachen
  • Kontinuierliches Monitoring von Modellen, um Leistungsveränderungen frühzeitig zu erkennen
  • Absicherung der gesamten Lieferkette für Hardware und Software

Je stärker KI in geschäftskritische Abläufe eingebunden wird, desto wichtiger wird ein umfassendes Sicherheitskonzept. Unternehmen sollten Entwicklung, Training und Betrieb ihrer Modelle von Beginn an mit robusten Schutzmechanismen absichern – und dabei eng mit Security-Spezialisten, KI-Fachleuten und Entwicklern zusammenarbeiten.

Anzeige
Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.