Ein Gartner-Analyst warnt vor den Sicherheitsrisiken von Microsoft Copilot und hat einen unkonventionellen und nicht ganz ernst gemeinten Tipp.
Wer kennt es nicht: Freitag, kurz vor Feierabend, die Konzentration im Keller. Genau das könnte laut Gartner-Analyst Dennis Xu zum Sicherheitsproblem werden, zumindest für Unternehmen, die Microsoft Copilot einsetzen. Auf dem Gartner Security & Risk Management Summit in Sydney schlug er halb im Scherz vor, die KI an Freitagnachmittagen einfach abzuschalten (via TheRegister). Denn wer nur noch schnell etwas erledigen will, prüft die Ausgabe eines Chatbots vermutlich nicht mehr besonders gründlich.
Was klingt wie eine Anekdote am Vortragsende, hat einen ernsten Kern. Xu hatte zuvor 30 Minuten lang die aus seiner Sicht fünf größten Sicherheitsrisiken von Copilot durchdekliniert. Das Freitagnachmittag-Problem gehört zum letzten Punkt: der Gefahr toxischer Ausgaben. Copilot kann Inhalte generieren, die sachlich korrekt, aber kulturell unpassend oder im beruflichen Kontext heikel sind. Microsoft liefert Filter dagegen, doch am Ende muss der Mensch gegenlesen. Und genau da wird es freitags dünn.
Das eigentliche Problem sitzt in SharePoint
Den größten Teil seiner Redezeit verwendete Xu allerdings auf ein anderes Thema: die unkontrollierte Verbreitung interner Dokumente durch Copilot. Die KI durchsucht SharePoint-Inhalte und liefert dabei auch Ergebnisse aus, auf die der fragende Mitarbeiter eigentlich keinen Zugriff haben sollte. Xu brachte das Beispiel eines Angestellten, der nach Informationen zu Organisationsveränderungen sucht und dabei auf ein vertrauliches Restrukturierungsdokument stößt.
SharePoint bietet mit Labels und Zugriffskontrolllisten gleich zwei Mechanismen zur Rechteverwaltung, die sich überlappen und fehleranfällig sind. Falsche Berechtigungen nachträglich zu korrigieren, ist mühsam. „Copilot macht übergeteilte Dokumente leichter zugänglich”, warnte Xu. „Das ist kein neues Risiko, sondern ein bekanntes Risiko, das durch KI verstärkt wird.”
Seine Forderung an Microsoft ist klar: „Ich sage Microsoft immer wieder, sie sollen eine einzige Schutzschicht bauen.” Bis das passiert, bleibe Unternehmen vor allem eines: Nutzeraktivitäten überwachen und den Zugriff auf sensible Inhalte kontrollieren.
Wenn die eigenen Leute zur Schwachstelle werden
Neben Oversharing und toxischen Inhalten sieht Xu drei weitere Gefahren. Angreifer können über manipulierte Prompts versuchen, Code einzuschleusen. Hier helfen Instruktionsfilter und die Einschränkung von E-Mail-Zugriff. Wird Copilot mit externen SaaS-Anwendungen verknüpft, können sensible Daten abfließen. Xu wies darauf hin, dass Microsoft das Plugin für Drittanbieter-Apps immerhin standardmäßig deaktiviert lässt, und riet, das auch so zu belassen, solange es nicht zwingend nötig ist.
Das vierte Risiko betrifft die eigenen Mitarbeiter: Wer seine Belegschaft ermutigt, mit KI zu experimentieren, riskiert, dass dabei Prompt-Injection-Angriffe entstehen, also Versuche, die Sicherheitsmechanismen des Chatbots gezielt auszuhebeln. Ob bewusst oder aus Neugier, das Ergebnis ist dasselbe. Xu empfahl klare Richtlinien, Schulungen und die Content-Safety-Filter des Azure-OpenAI-Dienstes.
Und wann sollte man das alles einrichten? Vielleicht am Freitagvormittag. Da ist die Konzentration ja noch da.