Sicherheit von Anfang an mitdenken

Programmierende KI: Die generierte Gefahr

KI Programmieren

Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.

Programmieren ist dank GenAI so einfach wie noch nie. Fast jeder kann damit im Handumdrehen mehr oder weniger guten Code erzeugen – allerdings schlagen Studien bereits Alarm: Ganze 62 % aller KI-generierten Codes sind fehlerhaft oder verwundbar. Noch gravierender: Nach nur fünf Iterationen von KI-unterstützten Verbesserungen steigt die Zahl kritischer Sicherheitslücken um fast 38 %. Wird Code also immer unsicherer, je häufiger KI im Entwicklungsprozess eingesetzt wird? Das ist sicherlich immer abhängig von Modell und Entwickler. Eins ist aber sicher: Ohne eine Sensibilisierung und entsprechende Gegenmaßnahmen kann das Versprechen der Effizienz schnell in ein enormes Risiko umschlagen. Schließlich optimiert GenAI auf Funktionalität, nicht auf Sicherheit und Resilienz. Damit verschiebt sich das Gleichgewicht zwischen Innovation und Sicherheit weiter zulasten der Stabilität digitaler Systeme.

Anzeige

Künstliche Intelligenz kann ein mächtiges Tool sein – aber nur, wenn wir Sicherheit von Anfang an mitdenken. Dazu gehören strukturierte Code-Reviews, automatisierte Schwachstellenanalysen und Security-by-Design-Prinzipien. Nur wer trotz automatisierter Code-Generierung das letzte Wort behält, kann die Vorteile von KI nutzen, ohne neue Risiken zu schaffen.

Jochen

Koehler

VP Sales EMEA

Cycode

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.