Versteckte Schwachstellen
Das chinesische KI-Sprachmodell DeepSeek-R1 produziert deutlich unsichereren Code, wenn Anfragen politisch sensible Begriffe enthalten. CrowdStrike stellte fest, dass die Fehlerrate bei solchen Prompts um bis zu 50 Prozent steigt.
Louisa Specht-Riemenschneider
Der Chatbot DeepSeek hat die KI-Branche aufgerüttelt. Deutschlands oberste Datenschützerin sorgt sich jedoch um Datenabflüsse nach China – und will die App nicht mehr in den Stores sehen.
Bedenken zum Datenschutz
Tschechien verbietet die Nutzung des chinesischen KI-Chatbots Deepseek in staatlichen Behörden und Institutionen.
Verstöße gegen europäisches Recht
Der KI-Chatbot DeepSeek hat die Branche mit seiner Leistungsfähigkeit überrascht. Die Berliner Datenschutzbeauftragte meint aber, die App sei rechtswidrig – und will sie aus den Stores werfen lassen.
„No Adversarial AI Act“
Eine parteiübergreifende Initiative im US-Kongress strebt ein Verbot von künstlicher Intelligenz (KI) aus China, Russland und anderen als feindlich geltenden Staaten für den Einsatz in US-Behörden an.
Datensicherheitsbedenken
Microsoft hat seinen Mitarbeitern die Nutzung der KI-Anwendung DeepSeek untersagt. Diese Entscheidung gab Brad Smith, Vizevorsitzender und Präsident von Microsoft, in einer US-Senatsanhörung bekannt.
Zwischen Effizienz und digitaler Souveränität
Effizient, nachvollziehbar, souverän – mit Bionic Reasoning prägt Europa eine eigenständige KI-DNA für die Industrie.
Auch Frankfurt im Investitionsfokus
Das neue Open-Source-KI-Modell von DeepSeek machte im Januar Schlagzeilen. Das Modell soll eine kostengünstige KI-Lösung bieten, die deutlich weniger Rechenleistung benötigt als andere führende Modelle.
Clipboard-Injektion und C&C-Verschleierung
Die Verbreitung generativer KI-Modelle schreitet rasant voran, was nicht nur innovative Möglichkeiten für Anwender schafft, sondern auch neue Angriffsflächen für Cyberkriminelle bietet.
Meistgelesene Artikel
14. März 2026