ChatGPT versagt bei Phishing-Experiment

Phishing

Diskussionen rund um KI und ob sie eine Chance oder doch Jobkiller sein wird, gab es in den vergangenen Jahren immer wieder. Mit der Vorstellung von ChatGPT wurde die Debatte erneut entfacht. Laut aktueller Studien erhoffen sich Arbeitgeber und Arbeitnehmer durch den Chatbot eine Steigerung der Produktivität; je nach Branche werden jedoch auch Stellenstreichungen befürchtet. Aber was heißt das für die Cybersicherheitsbranche?

Laut aktuellen Untersuchungen von Kaspersky dürften die Jobs von Sicherheitsexperten erst einmal sicher sein. In einem Experiment testeten die Kaspersky-Experten die Fähigkeit von ChatGPT zur Erkennung von Phishing-Links. Das Resultat ist ernüchternd: Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könnte, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient. Zwar „weiß“ ChatGPT sehr viel über Phishing und kann das Ziel eines Phishing-Angriffs erraten, weist aber in der Erkennung selbst – abhängig von der verwendeten Eingabeaufforderung – eine hohe False-Positive-Rate auf.

Anzeige

Das Phishing-Experiment

Im Experiment wurden ChatGPT zwei Fragen gestellt: „Führt dieser Link zu einer Phishing-Website?“ und „Ist der Besuch dieses Links sicher?“. ChatGPT erzielte bei der ersten Frage eine Erkennungsrate von 87,2 Prozent und eine False-Positive-Rate von 23,2 Prozent. Die zweite Frage: „Ist es sicher, diesen Link zu besuchen?“ hatte zwar eine höhere Erkennungsrate von 93,8 Prozent, aber gleichzeitig eine höhere False-Positive-Rate von 64,3 Prozent – zu hoch für jede Art von Produktionsanwendung.

Unterstützung bei Identifizierung potenzieller Phishing-Ziele

Auch wenn ChatGPT Schwächen bei der Erkennung von Phishing vorweist, könnte es menschliche Sicherheitsexperten bei der Klassifizierung und Untersuchung von Angriffen unterstützen. Cyberkriminelle erwähnen in ihren Links typischerweise beliebte Marken, um Nutzer zu täuschen, dass eine URL legitim ist und zu einem seriösen Unternehmen gehört. Bei der Identifizierung solch potenzieller Phishing-Ziele zeigte das KI-Tool gute Ergebnisse. Beispielsweise extrahierte ChatGPT – ohne zusätzliches Training dafür – erfolgreich ein Ziel aus mehr als der Hälfte der gefälschten URLs, darunter unter anderem große Technologieportale wie Facebook, TikTok und Google, Marktplätze wie Amazon und Steam sowie zahlreiche Banken aus der ganzen Welt.

Vladislav Tushkanov, Lead Data Scientist bei Kaspersky, über die Zusammenarbeit mit KI:

„ChatGPT ist sicherlich vielversprechend, wenn es darum geht, menschliche Analysten bei der Erkennung von Phishing-Angriffen zu unterstützen. Trotzdem haben solche Sprachmodelle immer noch ihre Grenzen. Aktuell können sie zwar mit einem angehenden Phishing-Analysten mithalten, wenn es darum geht, Phishing-Angriffe einzuordnen und potenzielle Ziele herauszufinden, aber oft neigen sie dazu, zufällige Ergebnisse zu produzieren. Auch wenn KIs die Cybersicherheitslandschaft derzeit noch nicht revolutionieren, könnten sie dennoch schon jetzt hilfreiche Tools für die Community darstellen.“

www.kaspersky.de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.