Cyberkriminelle nutzen ungesicherte Proxy-Server, um auf fremde Rechnung teure KI-Modelle anzuzapfen. Das Sicherheitsunternehmen 8com warnt vor dem zunehmenden Phänomen. Betroffene können Zehntausende Euro verlieren.
Der Boom um Large Language Models hat eine Schattenseite: Sicherheitsforscher warnen vor einer neuen Angriffsmethode namens “LLMjacking”, bei der Hacker falsch konfigurierte Proxy-Server ausnutzen, um kostenpflichtige KI-Dienste auf fremde Rechnung zu nutzen. Das IT-Sicherheitsunternehmen 8com beschreibt, wie die Masche funktioniert und welche Schutzmaßnahmen Entwickler ergreifen sollten.
Ungesicherte Proxys als Einfallstor
Das Problem beginnt oft in der Entwicklungsphase: Viele Entwickler setzen Proxy-Server auf, um API-Zugriffe zu bündeln oder die Latenz zu reduzieren. Dabei werden Sicherheitsaspekte häufig vernachlässigt. Die Server bleiben ohne Authentifizierung oder IP-Beschränkungen direkt aus dem Internet erreichbar. Genau diese Lücke machen sich Angreifer zunutze.
Mit automatisierten Tools wie dem “OAI-checker” scannen Kriminelle das Netz nach verwundbaren Endpunkten. Wird eine ungeschützte Instanz gefunden, können sie darüber beliebig viele Anfragen an die teuren Sprachmodelle von OpenAI, Anthropic oder Google senden. Die Rechnung geht an den rechtmäßigen Besitzer des API-Schlüssels. Innerhalb weniger Tage können so Kosten im fünfstelligen Bereich entstehen, warnt 8com.
Organisierter Handel mit gekaperten Zugängen
Die erbeuteten Zugänge werden nicht nur selbst genutzt, sondern in Untergrundforen weiterverkauft. Auf Plattformen wie Discord oder 4chan bieten Kriminelle Zugriff auf Premium-Modelle zu Dumpingpreisen an. Durch Load-Balancing über mehrere gekaperte Schlüssel versuchen sie, unter dem Radar der Betrugserkennungssysteme zu bleiben.
Die Folgen für Betroffene gehen über den finanziellen Schaden hinaus: Da die Angreifer die Modelle häufig für Zwecke missbrauchen, die gegen die Nutzungsbedingungen verstoßen – etwa zum Generieren von Phishing-Mails oder Schadcode – droht die Sperrung des Kontos. Im schlimmsten Fall können auch rechtliche Konsequenzen entstehen, da der ursprüngliche API-Inhaber formal für den Missbrauch verantwortlich gemacht wird.
Schutzmaßnahmen für Entwickler und Admins
8com empfiehlt klassische Sicherheitsmaßnahmen: Proxy-Instanzen sollten zwingend mit starker Authentifizierung versehen werden, der Zugriff über VPNs oder Zero-Trust-Architekturen erfolgen. Ebenso wichtig ist die Echtzeitüberwachung der API-Nutzung sowie das Einrichten von Budget-Limits bei den KI-Anbietern, um Schäden zu begrenzen.
Die zunehmende Bedeutung von KI-Schnittstellen macht deren Absicherung zu einer zentralen Aufgabe – nicht nur aus Kostengründen, sondern auch um zu verhindern, dass man ungewollt kriminelle Infrastrukturen mitfinanziert.