
Gefahr durch ChatGPT-Code
Das Voyager18-Forschungsteam von Vulcan Cyber hat eine neue Angriffstechnik entdeckt, die auf ChatGPT basiert. Diese ermöglicht es Angreifern, mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen. Voyager18 hat die neue Technik "AI-Paket-Halluzination" genannt. Sie beruht auf der Tatsache, dass ChatGPT und andere generative KI-Plattformen dazu neigen, Fragen mit künstlich kreierten Quellen, Links, Blogs und Statistiken zu beantworten. Es werden auch fragwürdige Korrekturen für CVEs generiert und Links zu Code-Bibliotheken angeboten, die nicht existieren.