OpenAI hat sein Sprachmodell ChatGPT erneut überarbeitet, um sensibler auf psychische Krisen und emotionale Notlagen zu reagieren.
In einem aktuellen Blogbeitrag beschreibt das Unternehmen, wie die jüngste Aktualisierung gezielt darauf abzielt, Menschen in schwierigen Situationen besser zu erkennen und zu unterstützen.
Mehr Achtsamkeit bei psychischer Belastung
Im Mittelpunkt der Aktualisierung stehen drei Bereiche: psychische Erkrankungen wie Manien oder Psychosen, Selbstverletzung und Suizid sowie emotionale Abhängigkeit von KI-Systemen. Ziel ist es, dass ChatGPT in Gesprächen frühzeitig Anzeichen seelischer Belastung erkennt, empathisch reagiert und Betroffene zu realen Hilfsangeboten führt.
Für die Weiterentwicklung arbeitete OpenAI nach eigenen Angaben mit über 170 Fachleuten aus Psychologie, Psychiatrie und Krisenintervention zusammen. Diese Expertise floss in die Gestaltung von Reaktionsmustern ein, die Fehleinschätzungen und unangemessene Antworten deutlich verringern sollen. Interne Auswertungen zufolge sank die Zahl unerwünschter Reaktionen um bis zu 80 Prozent.
Zuverlässiger in längeren Gesprächen
Neben den inhaltlichen Anpassungen wurde auch die Stabilität des Modells in längeren Dialogen verbessert. Laut OpenAI erreicht GPT-5 nun eine Zuverlässigkeit von über 95 Prozent, selbst wenn Gespräche über längere Zeiträume oder emotionale Themen geführt werden.
Das Unternehmen plant außerdem, künftig weitere psychologische Aspekte in die Sicherheitsprüfungen seiner Modelle zu integrieren – darunter nicht nur akute Krisensituationen, sondern auch subtile Formen emotionaler Abhängigkeit oder belastender Denkmuster.
Neue ethische Leitlinien in den Model Specs
Parallel zu den technischen Anpassungen hat OpenAI seine sogenannten Model Specs überarbeitet. Darin sind die ethischen Grundsätze und Sicherheitsziele der Systeme festgelegt. Künftig sollen diese klarer betonen, dass ChatGPT menschliche Beziehungen respektieren und fördern soll.
Zudem wurde festgelegt, dass das Modell keine unbegründeten Überzeugungen bestätigt, die auf psychische Belastungen hindeuten könnten. Stattdessen soll es einfühlsam reagieren und auf professionelle Hilfe hinweisen, wenn Anzeichen für Wahnvorstellungen, manische Episoden oder Selbstgefährdung erkennbar sind.
Schritt in Richtung verantwortungsvolle KI
Mit den jüngsten Änderungen will OpenAI ein deutliches Zeichen für verantwortungsbewusste KI-Entwicklung setzen. Die Systeme sollen nicht nur technisch sicherer, sondern auch menschlich sensibler werden – insbesondere in Situationen, in denen Nutzer emotionale Unterstützung suchen.
Die Weiterentwicklung zeigt, dass KI zunehmend nicht nur als Werkzeug, sondern auch als sozialer Gesprächspartner verstanden wird – einer, der Grenzen kennt, Verantwortung trägt und im besten Fall dabei hilft, den Weg zu echter menschlicher Hilfe zu finden.