Von Science-Fiction zu Cyber-Realität

Sam Altmans KI-Risiken im Härtetest der ISO 27001

Sam Altman, ChatGPT, Bildquelle: Photo Agency / Shutterstock.com
Bildquelle: Photo Agency / Shutterstock.com

Im Allgemeinen kann jede Erfindung, auch die KI, für Gutes oder Schlechtes verwendet werden. KI ist zugleich in aller Munde und kommt in immer mehr Unternehmen zum Einsatz, was jedoch nicht immer gesteuert erfolgt. Die Vorteile und Nachteile sind vielfach diskutiert worden. Fest steht vermutlich nur, dass sie nicht nur eine Mode ist, sondern bleiben wird. 

Allerdings wird bei genauer oder gar kritischer Betrachtung der KI die Grenze zwischen Hilfe und Schaden immer unschärfer.

Anzeige

Welche Folgen hat die Einführung von KI mit Blick auf die Sicherheitsarchitektur eines Unternehmens? Und was bedeutet es, wenn man die öffentlich diskutierten Risikoszenarien von OpenAIs Sam Altman in die Praxis eines Informationssicherheits-Managementsystems (ISMS) übersetzt? Was lassen sich für Folgerungen und Handlungsfelder ableiten? Diesen Fragen wollen wir nachgehen.

Der Reihe nach: Wer ist Sam Altman? 

Samuel Harris Altman ist ein US-amerikanischer Unternehmer, Investor und Softwareentwickler. Er ist seit 2019 CEO der Firma „OpenAI“, dem Unternehmen, das „ChatGPT“ entwickelt und veröffentlicht hat. Seit seinem achten Lebensjahr befasst er sich mit Software, sein Studium an der renommierten US-Universität Stanford brach er nach zwei Jahren ab, um ein Unternehmen zu gründen. Dank einer Reihe erfolgreicher Investitionen und Startups wird sein Vermögen auf zwei Milliarden Dollar geschätzt.

Und was ist ChatGPT? 

Dies steht für die Abkürzung „Chatbot Generative Pre-trained Transformer“ und bezeichnet ein großes Sprachmodell (LLM) im Bereich der Künstlichen Intelligenz (KI), dem man mit einfachen Eingaben (Prompts) Fragen und Aufgaben stellen kann und das ein dem Menschen ähnlichen Text generieren kann. Diese Modelle nutzen eine Transformer-Architektur, die durch das Lesen riesiger Textmengen vorab trainiert wird, um Sprachmuster zu verstehen und darauf basierend neuen, zusammenhängenden und relevanten Text zu erstellen. Die Anwendung von ChatGPT ist sehr einfach, man kann mit dem System „reden“. Es bringt sehr schnell verblüffend gute Ergebnisse, macht aber auch Fehler. Denn das System hat kein „Verständnis“ zum Text, den es generiert, es berechnet schlicht Wahrscheinlichkeiten auf Basis der trainierten Inhalte und Prompts und kann sich auch irren.

Anzeige

Die Veröffentlichung von ChatGPT löste einen weltweiten Boom aus, da erstmals jedermann mit Künstlicher Intelligenz interagieren konnte, ohne Computer-Kenntnisse besitzen zu müssen. Binnen weniger Tage nutzten mehr als 100 Millionen (!) Menschen weltweit das Programm. Damit war ChatGPT die bisher am schnellsten wachsende Plattform aller Zeiten.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Worauf beruhen Altmans Risikoüberlegungen? 

Seine Bedenken beruhen auf einem Paradoxon: Die Dinge, die GPT-5 so nützlich machen – Geschwindigkeit, Gedächtnis, Fähigkeiten – sind auch die, die es potenziell riskant machen. Konkret nannte er drei Szenarien:

1. Missbrauch durch böswillige Akteure

Sein Risiko-Szenario ist der Zugriff durch Staaten, Gruppen oder Einzelpersonen auf leistungsfähige KI-Systeme für Angriffe.

Die Folgerungen für ein ISMS sind Gegenmaßnahmen wie die Einführung strenger Zugriffskontrollen (etwa Zero Trust, MFA, Privileged Access Management) sowie der Ausbau des Third-Party Risk-Management mit Sicherheitsbewertung von Lieferanten und Partnern, die KI-Tools bereitstellen. Zudem müssen Monitoring & Threat Intelligence für KI erfolgen, also der Aufbau von Verfahren, um Missbrauch und anomale Nutzung frühzeitig zu erkennen. Außerdem ist die Reaktionsfähigkeit zu fördern, denn Incident-Response-Pläne, die auch KI-spezifische Angriffe abdecken (beispielsweise  Datenmanipulation durch generative KI) müssen besser schneller und besser sein.

2. Kontrollverlust über KI-Systeme

Hier ist das Szenario, dass KI-Systeme autonom handeln und sich menschlicher Steuerung entziehen.

Die Folgerungen für ein ISMS sind, dass Verantwortliche Gegenmaßnahmen wie technische Kontrollmechanismen (etwa “Kill-Switches”) oder Rückfallebenen für KI-Systeme einführen. Zugleich sollte das Risikomanagement geschärft werden, es braucht eine Bewertung von Fehlfunktionen oder Missbrauchsszenarien in der Asset- und Risikoanalyse. Die Notfallpläne wiederum müssen im Bereich Business Continuity & Disaster Recovery speziell für KI-gestützte Prozesse angepasst werden. Und die Verantwortlichkeiten brauchen eine klare Zuweisung, wer im Ernstfall Entscheidungen trifft.

3. Schleichende Abhängigkeit und Intransparenz

Das Szenario ist, dass Entscheidungen der KI überlassen werden, ohne dass Menschen sie verstehen.

Die Folgerungen für ein ISMS sind Gegenmaßnahmen Bereich Governance: Richtlinien, die Transparenz und Nachvollziehbarkeit (Explainability) bei KI-Systemen vorschreiben sind erforderlich. Zudem sind im Bereich Awareness & Schulungen Maßnahmen nötig wie z. B. Sensibilisierung der Mitarbeitenden dahingehend, dass KI-Anwendungen Werkzeuge sind, aber keine „autonomen Entscheider“. Außerdem ist ein Verantwortlichkeitsprinzip zu etablieren, denn menschliche Entscheidungsträger bleiben haftbar – und müssen das Ergebnis verstehen. Nicht zuletzt ist eine kontinuierliche Überwachung nötig, es muss also eine Überprüfung der Entscheidungen von KI auf Bias, Plausibilität und Compliance erfolgen.

Was sind übergreifende Konsequenzen für das ISMS?

Wenn man den Blick auf diese drei Szenarien fokussiert, kommt man nicht umhin, die Integration von KI-Risiken in das Risikomanagement (ISO 27005, Annex A ISO 27001) zu betreiben. Die Entscheider in den Unternehmen müssen Schnittstellen zu neuen Standards wie ISO/IEC 42001 (KI-Managementsystem) nutzen, um Governance und ISMS zusammenzuführen. 

Außerdem sollten sie an der Stärkung der Resilienz arbeiten und Szenario-Übungen („KI-Tabletop-Exercises“) als Teil des ISMS sehen. Und es sollten umfangreiche Dokumentationen erstellt werden, die als Nachweisführung über getroffene Schutzmaßnahmen dienen, da Behörden, Auditoren oder Versicherungen diese fordern können. Die Nutzung der gesetzlichen Regularien aus der KI-Verordnung sollte wiederum eine Selbstverständlichkeit werden. Denn auch wenn diese durchaus  als Einschränkung der Forschung und Entwicklung kritisiert werden, so ist mit Blick auf die Risiken anzuerkennen, dass die Sorgen ob der Möglichkeiten berechtigt sind und die EU-Gesetzgebung hier wichtige Maßnahmen ergriffen hat. Und mit der Umsetzung der genannten Normen ist es einfacher, die Verordnung einzuhalten.

Fazit

Ein auf KI vorbereitetes und mit KI verbessertes ISMS kann nicht alle Szenarien verhindern, aber es kann dafür sorgen, dass Missbrauch erschwert, Kontrollmechanismen etabliert und Transparenz eingefordert werden. Dadurch wird die Organisation widerstandsfähiger gegenüber den Risiken, die Sam Altman beschreibt.

Kilvinger

Klaus

Kilvinger

Geschäftsführender Gesellschafter

Opexa Advisory GmbH

Klaus Kilvinger ist Geschäftsführender Gesellschafter der Opexa Advisory GmbH, einer auf die Themen Cyber- und Informationssicherheit, sowie deren Integration in Geschäftsprozesse spezialisiertes Beratungsunternehmen mit Hauptsitz in München. Opexa bewegt sich im Umfeld der ISO 27001, TISAX und NIS2 sowie DORA.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.