Microsoft Purview vereint Sensitivity Labels, DLP und Monitoring auf einer Plattform – und schafft so die technische Basis für Compliance im KI-Zeitalter.
Generative KI dringt mit Tempo in Unternehmen vor. Microsoft Copilot ist dabei besonders tief in Microsoft 365 verankert: Der KI-Assistent durchsucht E-Mails, Dokumente, Chats und weitere Inhalte im Tenant – und generiert daraus neuen Content. Hier zeigt sich schneller als je zuvor, ob Berechtigungen zu großzügig vergeben wurden und ob sensible Inhalte tatsächlich geschützt sind.
IT-Sicherheit arbeitet traditionell mit klaren, absoluten Regeln. Dokumente dürfen nicht auf USB-Sticks kopiert werden, bestimmte Inhalte verlassen das Unternehmen nicht, unautorisierte Dienste werden gesperrt. Solche Vorgaben funktionieren, solange Datenflüsse eindeutig verlaufen und Risiken sich klar eingrenzen lassen.
Generative KI verändert diese Ausgangslage grundlegend. Microsoft Copilot verarbeitet große Informationsmengen, kombiniert Inhalte aus verschiedenen Quellen und erzeugt neuen Output. Eingaben und Ausgaben können sensible Daten enthalten – ohne dass ein klassischer Export oder eine offensichtliche Weitergabe stattfindet.
Pauschale Sicherheitsregeln verlieren dadurch an Wirksamkeit. Sie verhindern nicht zwangsläufig, dass vertrauliche Informationen in neue Kontexte gelangen oder unbeabsichtigt weitergegeben werden.
Compliance denkt in Kontext und Sensibilität
Hier setzt technische Compliance an – mit einem grundlegend anderen Ansatz als klassische Security. Während Sicherheitsmechanismen auf festen Verboten basieren, ordnet Compliance Informationen nach Sensibilität und Nutzungskontext ein. Öffentliche Daten dürfen weitgehend frei verwendet werden. Bei vertraulichen oder besonders schützenswerten Informationen gelten differenzierte Regeln.
Im KI-Umfeld ist diese Unterscheidung entscheidend. Die zentrale Frage lautet oft nicht, ob ein Anwender technisch auf Informationen zugreifen darf – sondern unter welchen Bedingungen er diese nutzen, weiterverarbeiten oder teilen darf. Damit solche Regeln greifen, müssen Unternehmen sie technisch abbilden.
In Microsoft 365 übernehmen Sensitivity Labels diese Aufgabe. Mit ihnen klassifizieren Unternehmen Daten nach ihrer Schutzbedürftigkeit und verknüpfen sie mit konkreten technischen Maßnahmen: Verschlüsselung, Zugriffsbeschränkungen oder visuelle Kennzeichnungen.
Besonders wichtig ist die Vererbung dieser Einstufung. Sensitivity Labels begleiten Informationen über ihren gesamten Lebenszyklus. Verarbeitet Microsoft Copilot klassifizierte Daten, übernimmt auch der erzeugte Output automatisch das entsprechende Schutzniveau. So verhindern Unternehmen, dass sensible Inhalte unkontrolliert in neue Dokumente, E-Mails oder Präsentationen einfließen.
Ohne diese Klassifizierung entstehen Risiken. Schutzmechanismen wie Data Loss Prevention entfalten ihre Wirkung besonders zuverlässig, wenn die Sensitivität eines Dokuments korrekt definiert ist. Retention Policies können auch unabhängig von Labels wirken, profitieren aber von klaren Governance-Regeln. Fehlerhafte oder fehlende Einstufungen führen dazu, dass KI-Anwendungen Informationen falsch behandeln – oder Mitarbeitende Inhalte teilen, die nicht für den jeweiligen Empfängerkreis bestimmt sind.
Berechtigungen allein schützen nicht ausreichend
Microsoft Copilot berücksichtigt bei der Datenverarbeitung die bestehenden Benutzerberechtigungen im Tenant. Anwender erhalten nur Zugriff auf Inhalte, für die sie grundsätzlich berechtigt sind. Doch dieser Mechanismus bildet lediglich die Zugriffsebene ab.
In der Praxis entstehen Risiken häufig beim Weiterverwenden von Informationen. Ein Mitarbeiter fragt Microsoft Copilot, die KI durchsucht SharePoint, Teams oder OneDrive und generiert eine Antwort. Anschließend stellt sich die Frage: Mit wem darf dieser Inhalt geteilt werden? Ohne Klassifizierung bleibt diese Entscheidung dem Anwender überlassen.
Sensitivity Labels reduzieren diese Unsicherheit. Die Einstufung zeigt, welche Nutzung erlaubt ist, und überträgt die zugrunde liegenden Regeln automatisch auf den KI-generierten Inhalt. Ergänzende Kontrollen blockieren oder beschränken Aktionen, die gegen definierte Vorgaben verstoßen.
Data Loss Prevention spielt in diesem Zusammenspiel eine zentrale Rolle. DLP-Richtlinien setzen die inhaltliche Einordnung technisch durch. Abhängig von Sensitivität und Nutzungskontext verhindern sie, dass vertrauliche Inhalte extern weitergegeben werden oder an private E-Mail-Adressen gelangen.
Ein typisches Szenario verdeutlicht die Relevanz: Nach der Einführung von Microsoft Copilot testen Mitarbeitende häufig aus, welche Informationen die KI liefert. Fragen nach Gehaltsdaten oder personenbezogenen Informationen gehören zu den häufigsten Prompts. Liegen entsprechende Daten ungeschützt in einem zugänglichen Bereich, liefert Microsoft Copilot die Information. Sind sie korrekt klassifiziert und durch DLP Richtlinien abgesichert, kann Purview die Verarbeitung dieser Inhalte einschränken oder verhindern, sodass sie nicht in Antworten oder Entwürfen genutzt werden.
Sensible Daten komplett von der KI ausschließen
Nicht alle Informationen sollen oder dürfen von KI verarbeitet werden. Besonders sensible Inhalte oder vertraglich geschützte Daten müssen unter Umständen vollständig von der KI-Nutzung ausgenommen werden. Da sich Dokumente nur schwer und unsauber aus dem Tenant-weiten Such- und Indexierungsprozess entfernen lassen, brauchen Unternehmen eine andere technische Maßnahme.
Double-Key-Encryption bietet hier einen wirksamen Ansatz. Weder Microsoft Copilot noch andere KI-Anwendungen können dann auf diese Inhalte zugreifen. Auch diese Maßnahme setzt eine saubere Klassifizierung voraus, um gezielt angewendet zu werden.
Mit wachsendem Datenvolumen und zunehmender KI-Nutzung steigt der Bedarf an Transparenz. Unternehmen müssen wissen, wo ihre Daten liegen, wie sie genutzt werden und welche Aktionen Anwender durchführen. Diese Sicht ist auch vor dem Hintergrund regulatorischer Anforderungen wie DSGVO, NIS2 oder DORA relevant. Diese Anforderungen erhöhen den Druck auf Transparenz, Nachvollziehbarkeit und wirksame technische Kontrollen in der Datenverarbeitung.
Microsoft Purview bündelt technische Compliance-Funktionen innerhalb von Microsoft 365 und bietet eine zentrale Auswertung von Aktivitäten, inklusive relevanter Copilot-Interaktionen. Über Analysewerkzeuge lassen sich Datenbewegungen und Nutzeraktionen detailliert nachvollziehen – einschließlich der Interaktionen mit Microsoft Copilot. Diese Einblicke unterstützen sowohl präventive Maßnahmen als auch Untersuchungen im Verdachtsfall.
Eine neue Position in der Organisation entsteht
Mit der Einführung einer zentralen Compliance-Plattform entstehen nicht nur technische, sondern auch organisatorische Anforderungen. Unternehmen brauchen eine Rolle, die technische Compliance verantwortet und zwischen IT, Rechts- und Fachabteilungen vermittelt. Der technische Compliance-Manager muss regulatorische Anforderungen verstehen, in technische Richtlinien übersetzen und deren Wirksamkeit bewerten.
Der Funktionsumfang moderner Compliance-Plattformen ist groß, und viele Einstellungen müssen in produktiven Umgebungen getestet werden. Ohne strukturiertes Vorgehen steigt der Aufwand erheblich. Deshalb setzen viele Organisationen bei der Einführung auf externe Unterstützung, um relevante Use Cases zu priorisieren und Risiken zu minimieren.
Ohne Klassifizierung keine sichere KI
Generative KI lässt sich nicht isoliert absichern. Sie arbeitet mit den Daten, die ihr zur Verfügung stehen, und übernimmt deren Kontext. Eine saubere Datenklassifizierung bildet daher das Fundament jeder Compliance-Strategie in Microsoft 365. Sie sorgt dafür, dass Schutzmechanismen greifen, KI-Ausgaben korrekt eingeordnet werden und unzulässige Aktionen verhindert werden. Microsoft Purview stellt die technischen Werkzeuge bereit, um diese Anforderungen umzusetzen und technische Compliance zentral zu steuern.