AI Security Report 2025 von Check Point

Darknet-Boom: Wie Hacker KI für kriminelle Zwecke nutzen

Hacker, hacker künstliche intelligenz, hacker ki, darknet ki, darknet künstliche intelligenz, hacker gpt, KI, künstliche Intelligenz

Künstliche Intelligenz (KI) ist längst im digitalen Untergrund angekommen. Ein neuer Sicherheitsbericht zeigt, wie Hacker-GPTs, KI-as-a-Service, Data Poisoning und Deepfakes gezielt für Cyberangriffe missbraucht werden – und welche Gefahren das für Unternehmen und Gesellschaft bedeutet.

KI trifft auf Cybercrime – und verändert alles

Der AI Security Report von Check Point Research offenbart: Cyberkriminelle nutzen KI inzwischen so gezielt wie Unternehmen – nur mit völlig anderer Absicht. Im Darknet kursieren manipulierte Sprachmodelle, automatisierte Betrugsdienste und gezielte Datenvergiftungen. KI ist nicht mehr nur ein Werkzeug, sie ist eine Waffe geworden.

Anzeige

Hacker-GPTs: Kriminelle KI-Modelle im Abo

Besonders alarmierend ist der Aufstieg sogenannter Dark LLMs – speziell manipulierte Sprachmodelle wie „WormGPT“, „GhostGPT“ oder „FraudGPT“. Diese werden im Darknet verkauft, häufig im Abo-Modell mit Support, und wurden gezielt so gebaut, dass sie keine ethischen Schranken mehr kennen. Hacker setzen sie ein, um Phishing-Mails, Schadcode oder Social-Engineering-Texte zu erstellen – ohne Filter, ohne Skrupel.

Bild 1: Der bösartige KI-Dienst WormGPT wird auf einem Telegram-Kanal beworben. (Quelle: Check Point Software Technology Ltd.)
Bild 1: Der bösartige KI-Dienst WormGPT wird auf einem Telegram-Kanal beworben. (Quelle: Check Point Software Technology Ltd.)
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Deepfake-Täuschung und Social Engineering auf neuem Level

Mit Hilfe von KI werden täuschend echte Fake-Stimmen und -Videos erzeugt. Deepfakes können inzwischen nicht nur Prominente imitieren, sondern auch Mitarbeiter oder Vorgesetzte – in Echtzeit. Damit wächst das Risiko, dass klassische Sicherheitsmechanismen wie Sprachverifizierung oder Videochats als Authentifizierungsinstrumente völlig versagen.

Missbrauch durch gestohlene Konten

Zugangsdaten zu populären KI-Services wie ChatGPT sind auf Darknet-Marktplätzen gefragte Ware. Sie werden durch Malware, Phishing oder Credential Stuffing erbeutet und dienen dazu, die KI anonym für illegale Aktivitäten zu nutzen – z. B. zur Erstellung von Fake-News oder zur Automatisierung von Angriffen.

Anzeige
Bild 2: Werbebanner aus dem Darknet für einen Kontoverifizierungs- und Entsperrungsdienst. (Quelle: Check Point Software Technology Ltd.)
Bild 2: Werbebanner aus dem Darknet für einen Kontoverifizierungs- und Entsperrungsdienst. (Quelle: Check Point Software Technology Ltd.)

KI-as-a-Service: Betrug zum Pauschalpreis

Komplettlösungen für Cyberangriffe sind heute als Dienstleistung buchbar – inklusive KI-Unterstützung. Der Darknet-Service „GoMailPro“ z. B. bietet für 500 Dollar pro Monat vollautomatisierten Spam und Phishing mithilfe von ChatGPT. Auch KI-basierte Telefonbetrugsdienste kosten inzwischen „nur“ noch rund 20.000 Dollar – mit synthetischer Stimme, Betrugs-Skripten und allem, was dazugehört.

Vergiftete Daten – die unsichtbare Gefahr

Ein weiteres Einfallstor: Datenvergiftung. Dabei werden absichtlich manipulierte Informationen in öffentlich verfügbare Trainingsdaten eingespeist, um generative KI-Modelle zu beeinflussen. Besonders brisant: 2024 soll ein russisches Netzwerk Millionen solcher Inhalte verbreitet haben. In einem Drittel der Fälle reagierten KI-Systeme mit der gewünschten Fehlinformation – eine massive Gefahr für Wahrheit und Vertrauen in digitale Assistenten.

Automatisierte Malware und Datenauswertung

Angreifer setzen KI zunehmend auch zur Entwicklung von Schadsoftware ein – und zur effizienten Analyse gestohlener Daten. Dienste wie „Gabbers Shop“ werben offen mit KI-gestützter Sortierung und Veredelung gestohlener Zugangsdaten, um sie möglichst profitabel weiterverkaufen zu können.

Abbildung 3 – Werbung fuer den Gabbers Shop in einem der Darkweb Foren. Check Point Software Technology Ltd. 1000
Bild 3: Werbung für den „Gabbers Shop“ in einem der Darkweb-Foren. (Quelle: Check Point Software Technology Ltd.)

Fazit: KI verändert die Spielregeln – auch für Verteidiger

Die Erkenntnisse aus dem Check Point AI Security Report machen klar: KI ist keine neutrale Technologie mehr. Sie wird gezielt manipuliert, gekauft und missbraucht – besonders im Darknet. Sicherheitsverantwortliche müssen jetzt handeln: mit KI-gestützten Abwehrsystemen, stärkeren Identitätsprüfungen und besserem Verständnis für die neuen Bedrohungen. Denn eines ist sicher: Die nächste Cyberattacke wird nicht mehr rein menschlich sein.

Weitere Informationen:

Für einen tieferen Einblick in diese Trends – und die Strategien zu ihrer Abschwächung – können Sie hier den vollständigen Check Point Research AI Security Report 2025 herunterladen.

(vp/Check Point Software Technologies Ltd.)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.