Google bewirbt Gemini als datenschutzfreundlich. Doch versteckte Einstellungen und Dark Patterns machen den Ausstieg für Nutzer fast unmöglich.
Die Integration von künstlicher Intelligenz in den digitalen Alltag hat einen vorläufigen Höhepunkt erreicht. Google treibt die Implementierung seines KI-Modells Gemini in nahezu alle Kernprodukte wie Gmail, Drive und Docs mit massiven Investitionen voran. Allein für dieses Jahr werden Ausgaben von rund 185 Milliarden US-Dollar in diesem Sektor erwartet. Doch während der Konzern öffentlich betont, die Privatsphäre seiner Nutzer zu respektieren, offenbart ein genauerer Blick auf die Benutzeroberflächen und Datenschutzbestimmungen ein komplexes Geflecht aus Standardeinstellungen und manipulativen Designelementen, sogenannten Dark Patterns, wie ars technica berichtet.
Gemini trainiert mit Nutzerdaten aus E-Mail-Kette
Google argumentiert, dass private Daten aus Workspace-Anwendungen nicht direkt zum Training der großen Basismodelle verwendet werden. Stattdessen greife Gemini nur für isolierte Aufgaben auf E-Mails oder Dokumente zu, um beispielsweise Zusammenfassungen zu erstellen. Die verarbeiteten Daten würden dabei nicht dauerhaft gespeichert. Diese Darstellung greift jedoch zu kurz, sobald Nutzer direkt mit den Gemini-Apps interagieren.
Der entscheidende Punkt liegt in den Interaktionen: Eingaben und Ausgaben der KI-Gespräche können sehr wohl für das Training verwendet werden, um die Qualität des Assistenten zu verbessern. Zwar versucht Google nach eigenen Angaben, persönliche Informationen durch automatisierte Filter zu reduzieren, doch wie zuverlässig diese Prozesse arbeiten, bleibt für Außenstehende intransparent. Wer Gemini bittet, eine E-Mail-Kette zusammenzufassen, riskiert, dass Teile dieser Informationen in den Trainingspool einfließen, sofern die entsprechenden Aktivitätseinstellungen nicht deaktiviert wurden.
Google: Einschränkung der Nutzerautonomie
Die Möglichkeit, der Datennutzung zu widersprechen, ist theoretisch vorhanden, wird dem Nutzer jedoch durch gezielte Design-Entscheidungen erschwert. Experten für User Experience (UX) sprechen hier von einer Einschränkung der Nutzerautonomie. Wer verhindern möchte, dass seine Daten für das KI-Training verwendet werden, muss die Funktion Gemini-App-Aktivitäten deaktivieren.
Hier setzt das erste Dark Pattern ein: Die Deaktivierung dieser Funktion ist mit einem hohen Preis verbunden. Google verknüpft die Privatsphäre-Option untrennbar mit der Speicherung des Chat-Verlaufs. Wer der Datennutzung widerspricht, verliert gleichzeitig den Zugriff auf seine bisherigen Konversationen. Der Nutzer wird somit vor die Wahl gestellt: Entweder er gibt seine Daten für das Training frei oder er verzichtet auf grundlegende Funktionen der Anwendung. Diese erzwungene Handlung (Forced Action) widerspricht dem Prinzip der freiwilligen Einwilligung.
Zudem ist das Menü zur Deaktivierung tief in den Untermenüs versteckt. In den zentralen Privatsphäre-Einstellungen des Google-Kontos, wo Nutzer üblicherweise ihre Datenfreigaben verwalten, fehlen direkte Links zu den Gemini-Kontrollen oft gänzlich. Stattdessen müssen sich Anwender durch spezifische App-Einstellungen oder Support-Artikel wühlen.
Die Geiselnahme der Smart Features in Gmail
Besonders deutlich wird die Strategie der voreingestellten KI-Nutzung in Gmail. Google bietet hier Funktionen wie KI-Zusammenfassungen von E-Mail-Verläufen oder die Unterstützung beim Verfassen von Nachrichten an. Wer diese Funktionen abschalten möchte, stößt auf eine weitere Hürde. Es gibt keinen einfachen Schalter, der ausschließlich die generative KI deaktiviert.
Stattdessen müssen Nutzer die sogenannten Smart Features komplett deaktivieren. Dies hat jedoch drastische Auswirkungen auf den Bedienkomfort, die weit über die KI hinausgehen. Wer Gemini in Gmail abschaltet, verliert gleichzeitig:
- Die automatische Filterung des Posteingangs (Tabs wie Sozial, Werbung, Benachrichtigungen).
- Die Paketverfolgung direkt in der E-Mail-Liste.
- Die Extraktion von Terminen für den Kalender.
- Die Funktion Smart Compose (Vorschläge beim Tippen).
Dieser Koppelungsmechanismus fungiert als Abschreckung. Ein Nutzer, der lediglich keine KI-Zusammenfassungen wünscht, wird durch das plötzliche Chaos in seinem Posteingang dazu gedrängt, die Einstellungen wieder rückgängig zu machen. Sobald dies geschieht, wird Gemini automatisch wieder aktiviert.
Die Macht der Standardeinstellungen
Der Erfolg von Gemini basiert zu einem großen Teil auf der Macht der Voreinstellung (Default). Google weiß, dass die Mehrheit der Milliarden Nutzer ihre Einstellungen niemals ändert. Indem die KI-Nutzung und die Datenfreigabe als Standard definiert werden, sichert sich der Konzern einen kontinuierlichen Datenstrom für die Weiterentwicklung seiner Modelle.
Diese Praxis steht zunehmend im Fokus von Wettbewerbshütern. In den USA und der EU wird im Rahmen von Kartellverfahren geprüft, ob Google seine marktbeherrschende Stellung bei Betriebssystemen und Browsern missbraucht, um KI-Dienste ohne explizite, faire Wahlmöglichkeit in den Markt zu drücken. Die Integration von Gemini wird dabei nicht mehr als optionales Feature, sondern als erzwungener Bestandteil der digitalen Infrastruktur wahrgenommen.
Für den Nutzer bleibt am Ende eine bittere Erkenntnis: Echter Datenschutz im Google-Ökosystem ist theoretisch möglich, erfordert aber einen erheblichen Verlust an Funktionalität und einen hohen Aufwand bei der Konfiguration. Das Versprechen einer intelligenten Zukunft scheint untrennbar mit der Preisgabe privater Daten verknüpft zu sein, solange die regulatorischen Rahmenbedingungen keine granulare Kontrolle über einzelne KI-Funktionen erzwingen.