Künstliche Intelligenz (KI) verändert derzeit nahezu alle Branchen – von der Verwaltung über das Vertragsmanagement bis hin zum Personalwesen.
Das Potenzial ist groß: Automatisierte Prozesse, schnellere Dokumentenverarbeitung und verlässliche Klassifizierungen führen zu deutlichen Effizienzgewinnen. Gleichzeitig wachsen die datenschutzrechtlichen Anforderungen: Unternehmen und Behörden müssen nachvollziehen können, welche Daten verarbeitet werden, wie sie genutzt werden und wer Zugriff darauf hat. Die Kombination aus Datenschutz-Grundverordnung (DSGVO) und dem neuen EU AI Act bildet dabei einen Rechtsrahmen, der Europa international eine Vorreiterrolle verschafft.
Transparenz der KI-Anbieter als Grundvoraussetzung für Vertrauen
Ein zentraler Baustein des verantwortungsvollen KI-Einsatzes ist die Transparenz der Anbieter. Nutzer müssen nachvollziehen können, welche Daten in das System gelangen, ob Modelle Daten speichern oder weitergeben, zu welchen Zwecken die Daten verarbeitet werden, wie lange sie gespeichert bleiben und welche technischen Maßnahmen Manipulation oder Fehlverhalten verhindern. Fehlt diese Transparenz, ist weder eine datenschutzkonforme Verarbeitung noch eine Risikoanalyse möglich. Für Unternehmen entsteht ein strategisches Problem: Ohne klare Angaben der Anbieter lässt sich nicht beurteilen, ob die KI-Implementierung mit der DSGVO vereinbar ist oder ob versteckte Datenabflüsse ein Compliance-Risiko darstellen. Der EU AI Act, als eigenständige EU-Verordnung 2024 verabschiedet, verstärkt diese Anforderungen und verpflichtet KI-Anbieter zu detaillierten Informationen über Trainingsdaten, Datenflüsse, Modellfunktionen, Fehlerquoten und Risiken. Genau hier entscheidet sich, ob Nutzer der Technologie vertrauen können – und ob KI im Unternehmen einsetzbar ist.
Konkret ergänzt der EU AI Act die DSGVO durch:
- Transparenzpflichten: Offenlegung, wenn Inhalte oder Entscheidungen durch KI generiert wurden
- Dokumentationspflichten: Technische Unterlagen, Logs, Modellinformationen und Risikoanalysen müssen für Aufsichtsbehörden nachvollziehbar sein.
- Bewertungspflichten: Unternehmen müssen bewerten, welche Risiken eine KI für Betroffene erzeugt.
- Sichere Systemgestaltung: Robustheit, Cybersecurity und Schutz vor Manipulation sind verpflichtend.
- Kennzeichnungspflichten: Nutzer müssen erkennen können, dass sie mit KI interagieren. Gemeinsam bilden DSGVO und EU AI Act damit einen doppelten Schutzmechanismus: Personenbezogene Daten bleiben geschützt – und die Systeme, die sie verarbeiten, müssen selbst transparent und kontrollierbar sein.
Abgeschottete Systeme sichern Datenhoheit und Transparenz
Für den sicheren Einsatz von KI steht außerdem die technische Umgebung im Fokus. Bei öffentlichen KI-Diensten fehlt Unternehmen häufig die Kontrolle darüber, welche Daten wohin fließen und wo sie gespeichert werden. Für professionelle Anwendungen sollten deshalb Systeme eingesetzt werden, die in einer abgeschotteten und kontrollierten Umgebung betrieben werden – idealerweise auf unternehmenseigenen Systemen oder in regulierten europäischen Rechenzentren. So behalten Unternehmen die notwendige Übersicht über Datenwege sowie Speicherorte und können die vorgeschriebenen Rechtsgrundlagen, Zugriffskonzepte und technischen Schutzmaßnahmen wie Verschlüsselung und Protokollierung etablieren. Denn nur so lässt sich sicherstellen, dass keine Informationen unbeabsichtigt in andere Systeme gelangen.
Kontrollen und Einflussnahmen durch Menschen bleiben zentral
Trotz zunehmender Automatisierung bleibt der Mensch entscheidend. KI soll unterstützen, nicht autonom entscheiden. Besonders bei rechtlich relevanten Dokumenten ist menschliche Kontrolle unverzichtbar. Seriöse KI-Systeme ermöglichen es, Ergebnisse zu prüfen, freizugeben oder zu korrigieren. Das ist essenziell – gerade bei Verträgen oder steuerlichen Dokumenten. Das gilt ebenso für Bereiche, in denen KI Entscheidungen mit weitreichenden Folgen für einzelne Personen treffen könnte – sogenannte Hochrisiko-KI, etwa zur Einschätzung der Kreditwürdigkeit. In solchen Fällen müssen Entscheidungen nachvollziehbar sein und dürfen nicht ohne menschliche Prüfung getroffen werden. Dieses „Human-in-the-Loop“-Prinzip verhindert Fehlentscheidungen und bildet einen wichtigen Bestandteil der Sicherheitsarchitektur moderner KI- Lösungen.
Datenschutz und KI sind kein Widerspruch
Viele heute diskutierte Sicherheitsanforderungen sind in Banken, Behörden oder der Finanzbranche seit Jahren etabliert. KI erweitert diese Strukturen lediglich. Zugriffskontrollen, Protokollierungen sowie technische und organisatorische Maßnahmen gehören bereits zum Standard. Diese Maßnahmen werden jetzt einfach auf KI-Systeme ausgeweitet – das ist nichts Neues, sondern ein konsequenter Schritt. Datenschutz und KI widersprechen sich also nicht, es bleiben jedoch Aspekte, die für den sicheren Einsatz entscheidend bleiben:
- Transparenz der Anbieter
- robuste Kontrollen für Hochrisikoanwendungen
- menschliche Prüfung als unverzichtbarer Bestandteil
- lokale Datenverarbeitung für maximale Datensouveränität
- Dokumentation und Nachvollziehbarkeit aller Prozesse