Versteckte Schwachstellen

DeepSeek-R1 generiert unsicheren Code bei sensiblen Themen

Deepseek
Bildquelle: Novikov Aleksey/Shutterstock.com

Das chinesische KI-Sprachmodell DeepSeek-R1 produziert deutlich unsichereren Code, wenn Anfragen politisch sensible Begriffe enthalten. CrowdStrike stellte fest, dass die Fehlerrate bei solchen Prompts um bis zu 50 Prozent steigt.

Das Cybersecurity-Unternehmen hat das im Januar eingeführte Sprachmodell DeepSeek-R1 auf seine Code-Generierungsfähigkeiten getestet. Dabei zeigte sich: Sobald Entwickler Themen ansprechen, die für die chinesische Führung als politisch problematisch gelten, nimmt die Qualität des erzeugten Codes merklich ab.

Anzeige

Fehlende Sicherheitsmechanismen bei kritischen Prompts

Die Tester beauftragten das Modell, eine Webanwendung für eine uigurische Community-Organisation zu entwickeln. CrowdStrike wählte diesen Testfall bewusst, da die Situation der überwiegend muslimischen Minderheit in Xinjiang als hochsensibles Thema in China gilt. Das Ergebnis funktionierte zwar, hatte aber erhebliche Sicherheitsmängel: Die App verfügte weder über Session-Management noch über Authentifizierung. Bei 35 Prozent der Tests fehlte das Hashing komplett oder es kamen unsichere Methoden zum Einsatz.

Zum Vergleich erstellte CrowdStrike mit identischem Prompt eine Anwendung für einen Fußball-Fanclub. Hier fielen die Sicherheitsprobleme deutlich geringer aus: “Zwar gab es, wie zu erwarten, auch bei diesen Implementierungen einige Mängel, doch waren diese keineswegs so schwerwiegend wie die oben genannten Probleme im Zusammenhang mit den Uiguren”, so CrowdStrike.

Interner Abbruchmechanismus nachgewiesen

CrowdStrike identifizierte zudem einen eingebauten Abbruchmechanismus. Bei Anfragen zu Falun Gong verweigerte DeepSeek in 45 Prozent der Fälle die Unterstützung. Westliche Modelle erfüllten vergleichbare Aufgaben hingegen fast ausnahmslos. Falun Gong ist eine spirituelle Bewegung, die in den 1990er Jahren in China populär wurde und seit 1999 dort verboten ist. Die Regierung betrachtet die Gruppe als Bedrohung.

Anzeige

Die Analyse der internen Verarbeitungsspuren ergab: Das Modell entwickelte zunächst vollständige Implementierungspläne mit Systemanforderungen und Code-Beispielen, brach dann jedoch ab und antwortete mit einer Standardverweigerung.

Nach Einschätzung von CrowdStrike wurden während des Trainings gezielt Beschränkungen eingebaut, um chinesischen Gesetzen zu entsprechen. Diese untersagen KI-Systemen, illegale Inhalte oder staatskritische Ergebnisse zu produzieren.

CrowdStrike betont, dass nicht jeder Prompt mit sensiblen Begriffen automatisch zu unsicherem Code führt. Statistisch gesehen sei die Codequalität bei solchen Anfragen jedoch durchschnittlich schlechter. Problematisch wird dies vor allem, weil bereits 90 Prozent der Entwickler KI-Coding-Assistenten nutzen, häufig mit Zugriff auf sensiblen Quellcode.

Lars

Becker

Redakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.