Neue Sicherheitsarchitektur

Telekom will Risiken von KI-Agenten reduzieren

Telekom
Bildquelle: nitpicker / Shutterstock.com

KI-Agenten werden zum Sicherheitsrisiko. Die Deutsche Telekom will dem mit digitalen Identitäten und klaren Regelwerken für KI-Systeme begegnen.

Mit dem zunehmenden Einsatz von Künstlicher Intelligenz verändert sich nicht nur die Arbeitswelt, sondern auch die Sicherheitsarchitektur von Unternehmen. Die Deutsche Telekom reagiert darauf mit einem erweiterten Konzept, das KI-Agenten konsequent als eigenständige Akteure behandelt – ähnlich wie Mitarbeitende, Dienstleister oder technische Geräte.

Anzeige

Telekom-Sicherheitschef Thomas Tschersich verweist darauf, dass KI inzwischen Inhalte erzeugen kann, denen Menschen nicht mehr ohne Weiteres vertrauen können. Gerade deshalb müsse Sicherheit neu gedacht werden, mit digitalen Vertrauensmechanismen, die menschlichen Beziehungen gleichkommen.

Digitale Identität als Fundament

Im Zentrum des Telekom-Ansatzes steht die Vergabe eindeutiger digitaler Identitäten. Aufbauend auf jahrzehntelanger Erfahrung mit Zertifikaten und Identitätslösungen erhalten nicht nur Menschen und Geräte, sondern auch Bots und KI-Agenten eine klar definierte Identität.

Mit Lösungen wie Magenta Security Mobile.ID werden diese Akteure eindeutig identifizierbar, schreibt das Unternehmen. Ihr Verhalten lässt sich überwachen, Abweichungen werden als Anomalien erkannt. Dadurch können potenzielle Manipulationen oder ungewöhnliche Aktivitäten frühzeitig auffallen.

Anzeige

Da mit der Einbindung von KI die Zahl der überwachten Instanzen stark wächst, kommen wiederum KI-Systeme zum Einsatz, um diese Sicherheitsprozesse zu unterstützen.

Schutz vor Deepfakes und manipulierten Agenten

Ein wachsendes Risiko sind Deepfakes, also künstlich erzeugte Stimmen oder Identitäten. Die Telekom arbeitet in diesem Bereich unter anderem mit Partnern wie Resemble AI zusammen, einem Start-up, das Technologien zur Erkennung synthetischer Stimmen entwickelt.

Doch nicht nur Menschen können Opfer solcher Täuschungen werden. Auch KI-Agenten selbst könnten Ziel manipulierter Identitäten sein, wenn sich ein fremder Agent als vertrauenswürdiges System ausgibt. Denkbar sind Szenarien, in denen gefälschte Instanzen Daten abgreifen, Rechnungen freigeben oder Geschäftsprozesse blockieren.

Eindeutige digitale Identitäten und klare Regelwerke für KI-Ökosysteme sollen solche Risiken reduzieren.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Sicherheitsmodelle weiterentwickeln

Klassische Konzepte wie SASE und Zero Trust haben in den vergangenen Jahren auf Cloud-Nutzung und mobiles Arbeiten reagiert. Sie gehen davon aus, dass kein Akteur automatisch vertrauenswürdig ist und Zugriffe konsequent überprüft werden müssen.

Mit KI-Agenten erweitert sich dieses Modell. Auch diese Systeme benötigen klar definierte Rechte – etwa für das Lesen, Schreiben oder Weitergeben von Daten. Selbst Änderungen am Quellcode oder eigenständige Optimierungen lassen sich durch entsprechende Richtlinien beschränken. Ziel ist es, zu verhindern, dass Bots unbemerkt manipuliert oder als Werkzeug für Angriffe missbraucht werden.

Sicherheit als Voraussetzung für KI-Nutzung

Für die Deutsche Telekom ist der sichere Umgang mit KI keine Option, sondern Grundvoraussetzung für deren Einsatz. Vorstand Abdu Mudesir betont, dass Innovation und Sicherheit gemeinsam gedacht werden müssen, um echten Mehrwert für Kunden zu schaffen.

Das vorgestellte Sicherheitskonzept verfolgt daher einen ganzheitlichen Ansatz: Kommunikation und Zusammenarbeit sollen unabhängig davon abgesichert werden, ob sie zwischen Menschen, Maschinen oder KI-Agenten stattfinden.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.