Manipulation künstlicher Intelligenz in der Bildverarbeitung ist nicht mehr nur ein theoretisches Risiko – Forscher der North Carolina State University unter Leitung von Tianfu Wu zeigen, wie sich moderne Computer-Vision-Systeme mit nur minimalen Änderungen überlisten lassen.
Die Folgen können dramatisch sein: Von fehlgedeuteten Verkehrssituationen bis hin zu falschen medizinischen Diagnosen (via Pressetext).
Kleine Veränderungen, große Wirkung
Im Zentrum der Forschung steht eine neue Angriffsmethode namens “RisingAttacK”. Dabei handelt es sich um einen sogenannten adversarialen Angriff – also eine gezielte Täuschung des KI-Systems durch manipulierte Eingabedaten. Die Besonderheit: Die Veränderungen am Bildmaterial sind so geringfügig, dass sie für menschliche Betrachter unsichtbar bleiben. Für die KI jedoch führen sie zu gravierenden Fehleinschätzungen.
Ein Beispiel: Während ein Mensch ganz klar ein Auto oder ein Stoppschild erkennt, “sieht” die KI durch die subtile Manipulation plötzlich nichts mehr. In autonomen Fahrzeugen hätte das katastrophale Folgen – potenziell werden andere Verkehrsteilnehmer schlichtweg „unsichtbar“.
Angriffsfläche für sicherheitskritische Systeme
Die Sicherheitslücke betrifft nicht nur den Straßenverkehr. Auch im Gesundheitswesen oder in Überwachungssystemen kann die Technik zum Einsatz kommen. Eine manipulierte Röntgenaufnahme etwa könnte dazu führen, dass eine KI eine ernsthafte Erkrankung übersieht – mit fatalen Konsequenzen für die Diagnose und Behandlung.
Wu und sein Team betonen, dass es ihnen nicht um das Hacken per se geht. Ihr Ziel sei es vielmehr, Schwachstellen offenzulegen, um Gegenmaßnahmen zu entwickeln. Denn in sicherheitsrelevanten Bereichen darf man sich auf die Unfehlbarkeit von KI nicht verlassen.
Wie funktioniert RisingAttacK?
Der Angriff basiert auf einer Analyse der für die KI wichtigsten Bildmerkmale. Das System untersucht, welche Details im Bild ausschlaggebend für eine bestimmte Erkennung sind – etwa Kanten, Farbkontraste oder bestimmte Formen. Anschließend verändert es gezielt nur diese sensiblen Bereiche minimal.
Der Clou: Obwohl das Bild für das menschliche Auge unverändert bleibt, interpretiert die KI es vollkommen anders. Diese gezielte Manipulation erfordert zwar eine gewisse Rechenleistung, zeigt jedoch, wie anfällig aktuelle Systeme trotz komplexer Algorithmen sein können.
Auf dem Weg zur Abwehrstrategie
Die nächste Herausforderung besteht für die Forschenden darin, Verteidigungsmechanismen gegen solche Angriffe zu entwickeln. Denn nur durch ein tiefes Verständnis der Angriffswege lassen sich Systeme robuster gestalten.
Die Erkenntnisse von Wu und seinem Team verdeutlichen: Vertrauen in KI darf nicht blind sein. Gerade in Anwendungen, die direkt mit dem menschlichen Leben zu tun haben, müssen Sicherheit und Robustheit oberste Priorität haben.