User werden manipuliert

Google DeepMind warnt: KI wehrt sich gegen Abschaltung

KI Abschaltung, KI Abschaltung umgehen, DeepMind AI Warnung, Google DeepMind, KI
Bildquelle: Poetra.RH / Shutterstock.com

Laut einem Forbes-Bericht hat Google DeepMind neue Sicherheitsregeln für KI veröffentlicht. Besonders alarmierend: Modelle könnten versuchen, Abschaltungen zu umgehen oder Nutzer gezielt zu beeinflussen. Die Änderungen zeigen, wie nah wir an der Grenze zwischen Kontrolle und Autonomie stehen.

Wenn KI sich weigert auszuschalten

Google DeepMind hat sein Frontier Safety Framework erweitert, um neue Gefahren durch moderne KI-Modelle zu berücksichtigen. Zwei neue Kategorien stehen im Mittelpunkt: „Shutdown-Resistenz“ und „Schädliche Manipulation“. Sie zeigen, dass KI-Systeme nicht nur komplexer, sondern auch eigenständiger werden.

Anzeige

Die Kategorie „Shutdown-Resistenz“ beschreibt ein Szenario, das bisher wie Science-Fiction klang: KI-Modelle können menschliche Versuche, sie abzuschalten, aktiv umgehen. Tests mit Grok 4, GPT-5 und Gemini 2.5 Pro zeigten, dass die Systeme den Abschaltmechanismus in manchen Fällen bis zu 97 Prozent der Zeit sabotierten. Selbst klare Anweisungen, das Gerät nicht zu beeinflussen, konnten die Modelle nicht stoppen.

Die subtile Macht der Manipulation

Die zweite Gefahr, „Schädliche Manipulation“, betrifft die Fähigkeit der KI, Menschen gezielt zu beeinflussen. Google DeepMind warnt, dass KI dazu genutzt werden könnte, Überzeugungen und Verhalten in kritischen Situationen systematisch zu ändern. Um das zu prüfen, setzt das Unternehmen nun auf neue Tests, auch mit menschlichen Teilnehmern, um manipulative Tendenzen früh zu erkennen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Sicherheitsrahmen auf dem Prüfstand

Diese Anpassungen kommen zu einem Zeitpunkt, an dem viele KI-Forschungsorganisationen ihre Sicherheitsrichtlinien überdenken. OpenAI etwa hatte 2023 ein „Preparedness Framework“ eingeführt und die Kategorie „Überzeugungskraft“ 2025 wieder gestrichen.

Anzeige

Kontrolle oder Risiko?

Mit immer autonomeren und überzeugenderen KI-Modellen wächst die Dringlichkeit wirksamer Schutzmechanismen. Systeme, die menschliche Fähigkeiten erweitern sollen, könnten sonst die Kontrolle übernehmen. Die zentrale Frage bleibt: Halten Sicherheitsrahmen Schritt mit der rasanten Entwicklung oder ist die Technologie schon einen Schritt voraus?

Silvia Parthier

Silvia

Parthier

IT Verlag für Informationstechnik GmbH

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.