Google preist Gemini 3 als Leistungssprung. Doch die eigentliche Story liegt woanders. Wenn ein Assistent wie dieser zum operativen Rückgrat wird, stehen Unternehmen vor einer unterschätzten Abhängigkeit mit weitreichenden Folgen.
Doch statt lediglich zu schauen, was die neue Version besser kann als die alte, sollten Führungskräfte sich die weitreichenden Implikationen dieses Updates vergegenwärtigen. Denn mit der Veröffentlichung von Gemini 3 verschmilzt KI endgültig mit dem operativen Kern des Unternehmens.
KI wird vom Werkzeug zur Betriebsgrundlage
Spätestens mit Gemini 3 ist KI ist nicht länger nur ein Assistent und Werkzeug bei der täglichen Arbeit. Sie wird zur technologischen Grundlage für den Betrieb des Unternehmens. Und damit wird sie gleichermaßen zum neuen Sicherheitsperimeter – dem äußersten Punkt des zu schützenden Bereichs jedes Unternehmens. KI-Assistenten wie Microsoft Copilot hatten den Weg dafür schon bereitet: Sie durchdringen Produktivitätsumgebungen, durchsuchen Dokumente, agieren in Postfächern und automatisieren Workflows.
Gemini 3 beschleunigt diesen Trend in Googles Ökosystem. Durch native Workspace-Integrationen und erste agentische Fähigkeiten entsteht ein zunehmend einheitliches AI-Mesh, in dem KI-Interaktionen sich über E-Mails, Docs, Speicher, Collaboration und Automatisierung erstrecken werden. KI ist damit nicht mehr nur ein Werkzeug, sondern wird zur aktiven Infrastruktur.
Genau hier liegt der sicherheitstechnische Wendepunkt. Gemini 3 kann Dokumente umschreiben, weiterleiten, auf Inhalte reagieren und APIs ansteuern. In dieser operativen Tiefe wächst die Angriffsfläche erheblich und liegt dabei oft jenseits klassischer Sicherheitskontrollen. Das wird besonders bei der indirekten Prompt Injection sichtbar. Dabei manipulieren Angreifer nicht die Nutzereingaben, sondern die Daten, die das Modell verarbeitet. Da Gemini 3 Inhalte aus E-Mails, Dokumenten, PDFs und Links zieht, genügt ein einziges sabotiertes Web-Dokument, eine veränderte Signatur oder ein manipulierter PDF-Bestandteil, um das Modell unbemerkt zu manipulieren. Oftmals erkennen Security-Layer das nicht.
Mit multimodalen Attacken wird jedes Datenformat zum Angriffsvektor
Hinzu kommen multimodale Attacken, also Angriffe, bei denen ein KI-Modell nicht über Text allein manipuliert wird, sondern über andere Eingabeformen wie Audio, Bilder, Video. Audio-Jailbreaks beispielsweise funktionieren über Transkripte, die auf den ersten Blick sauber erscheinen, aber gefährliche Befehle enthalten können, die für den KI-Assistenten wahrnehmbar sind, aber nicht für den Nutzer. Diese Taktiken sind für Cyberkriminelle leicht umsetzbar. Unternehmen müssen daher bösartige Bilder, manipulierte Medien oder gefälschte Screenshots als reale Angriffsvektoren behandeln. Klassische E-Mail-, Endpoint- oder Content-Security reicht schlichtweg nicht mehr aus.
Gleichzeitig bringt Gemini 3 erste agentische Funktionen mit, die KI handlungsfähig machen und ihnen Fähigkeiten geben, die über Frage-Antwort-Konversationen weit hinausgehen. Solche agentischen Funktionen mit weitem Handlungsspielraum können zu Risiken können, wenn Berechtigungen zu weit gefasst sind oder Aktionen nicht von Menschen gegengecheckt werden. Fehlkonfigurationen können Privilegien ausweiten oder unkontrollierte Prozesse auslösen. Diese Gefahrenquellen sind bereits heute operative Realität.
KI-Innovationen rennen der Compliance davon
Parallel dazu werden Organisationen vom Tempo des Fortschritts überholt: Der „GenAI Security Readiness Report“ zeigt, dass Unternehmen KI deutlich schneller einsetzen, als sie diese absichern können. Es fehlt oft an Guardrails, Agent-Monitoring, multimodalen Schutzmechanismen und adversarialen Testpipelines. Gemini 3 verstärkt diese Lücke, denn je mehr ein KI-Assistent kann, desto größer wird die Angriffsfläche.
Gleichzeitig zeigen erste Ergebnisse der b³-Evaluierung ein wichtiges Detail: Gemini 3 Pro Preview gehört zu den robustesten Modellen bei Content-Extraktion und Safeguard-Bypass und liegt knapp vor Claude 4.5 Haiku. Besonders leistungsfähig wird Gemini 3 Pro, wenn es explizit zur Sicherheitspriorisierung instruiert wird und eine zusätzliche Schicht zur Selbstbeurteilung durchläuft. Diese Konfiguration erhöht jedoch den Rechenaufwand erheblich, während Claude 4.5 Haiku ähnliche Sicherheit zu deutlich geringeren Kosten bietet. Der entscheidende Punkt ist: Das Modell allein ist nicht die Sicherheitsstrategie. Konfiguration, Prompting und mehrschichtige Guardrails sind ebenso zentral.
Für Führungskräfte ergibt sich daraus eine neue Kernaufgabe. Die entscheidende Frage lautet nicht mehr: „Wie intelligent ist das Modell?“, sondern „Worauf hat das Modell Zugriff und wer stellt sicher, dass es sicher handelt?“. Künstliche Intelligenz greift heute auf Dokumente, Posteingänge, APIs, Workflows und operative Systeme zu. Damit bildet sie den äußersten Rand der Unternehmenssicherheit, den es zu schützen gilt. Das ist ab sofort Vorstandsverantwortung und wird die Cybersicherheitsstrategie des kommenden Jahrzehnts prägen.