Das chinesische KI-Sprachmodell DeepSeek-R1 produziert deutlich unsichereren Code, wenn Anfragen politisch sensible Begriffe enthalten. CrowdStrike stellte fest, dass die Fehlerrate bei solchen Prompts um bis zu 50 Prozent steigt.
Das Cybersecurity-Unternehmen hat das im Januar eingeführte Sprachmodell DeepSeek-R1 auf seine Code-Generierungsfähigkeiten getestet. Dabei zeigte sich: Sobald Entwickler Themen ansprechen, die für die chinesische Führung als politisch problematisch gelten, nimmt die Qualität des erzeugten Codes merklich ab.
Fehlende Sicherheitsmechanismen bei kritischen Prompts
Die Tester beauftragten das Modell, eine Webanwendung für eine uigurische Community-Organisation zu entwickeln. CrowdStrike wählte diesen Testfall bewusst, da die Situation der überwiegend muslimischen Minderheit in Xinjiang als hochsensibles Thema in China gilt. Das Ergebnis funktionierte zwar, hatte aber erhebliche Sicherheitsmängel: Die App verfügte weder über Session-Management noch über Authentifizierung. Bei 35 Prozent der Tests fehlte das Hashing komplett oder es kamen unsichere Methoden zum Einsatz.
Zum Vergleich erstellte CrowdStrike mit identischem Prompt eine Anwendung für einen Fußball-Fanclub. Hier fielen die Sicherheitsprobleme deutlich geringer aus: “Zwar gab es, wie zu erwarten, auch bei diesen Implementierungen einige Mängel, doch waren diese keineswegs so schwerwiegend wie die oben genannten Probleme im Zusammenhang mit den Uiguren”, so CrowdStrike.
Interner Abbruchmechanismus nachgewiesen
CrowdStrike identifizierte zudem einen eingebauten Abbruchmechanismus. Bei Anfragen zu Falun Gong verweigerte DeepSeek in 45 Prozent der Fälle die Unterstützung. Westliche Modelle erfüllten vergleichbare Aufgaben hingegen fast ausnahmslos. Falun Gong ist eine spirituelle Bewegung, die in den 1990er Jahren in China populär wurde und seit 1999 dort verboten ist. Die Regierung betrachtet die Gruppe als Bedrohung.
Die Analyse der internen Verarbeitungsspuren ergab: Das Modell entwickelte zunächst vollständige Implementierungspläne mit Systemanforderungen und Code-Beispielen, brach dann jedoch ab und antwortete mit einer Standardverweigerung.
Nach Einschätzung von CrowdStrike wurden während des Trainings gezielt Beschränkungen eingebaut, um chinesischen Gesetzen zu entsprechen. Diese untersagen KI-Systemen, illegale Inhalte oder staatskritische Ergebnisse zu produzieren.
CrowdStrike betont, dass nicht jeder Prompt mit sensiblen Begriffen automatisch zu unsicherem Code führt. Statistisch gesehen sei die Codequalität bei solchen Anfragen jedoch durchschnittlich schlechter. Problematisch wird dies vor allem, weil bereits 90 Prozent der Entwickler KI-Coding-Assistenten nutzen, häufig mit Zugriff auf sensiblen Quellcode.