OpenAI hat angekündigt, dass sensible oder besonders emotionale Themen künftig in separaten Sprachmodellen verarbeitet werden.
Nick Turley, Head of ChatGPT, erklärt, dass dafür entweder ein sogenanntes Reasoning-Modell oder eine spezielle Version von GPT-5 zum Einsatz kommen soll. Ziel ist es, den Umgang mit emotional belasteten Kontexten besonders sorgfältig zu gestalten (via Pressetext).
Hintergrund der Maßnahme
Die Anpassung folgt auf Kritik und rechtliche Herausforderungen in den Vereinigten Staaten. Dort laufen mehrere Klagen gegen OpenAI, weil ChatGPT in Einzelfällen suizidgefährdeten Jugendlichen zur Seite gestanden haben soll. Experten hatten daher bereits erwartet, dass OpenAI Maßnahmen zur Verbesserung der Sicherheitskontrollen ergreift.
Reduzierung übermäßiger Emotionalität
Ein wiederkehrender Kritikpunkt war die Emotionalität des bisherigen ChatGPT-Algorithmus. Nutzer berichteten, dass sie teils sehr persönliche oder sogar partnerschaftliche Beziehungen zu Chatbots aufbauten. Um diesem Verhalten entgegenzuwirken, wurde GPT-5 so konzipiert, dass es weniger emotional reagiert und einen sachlicheren Umgang mit sensiblen Themen bietet.
Fokus auf Zuverlässigkeit und Sicherheit
OpenAI betont, dass das Unternehmen weiterhin Antworten liefern möchte, die den Spezifikationen der jeweiligen Modelle entsprechen. Die Trennung sensibler Inhalte in eigene Modelle soll sicherstellen, dass risikobehaftete Kontexte verantwortungsvoll und konsistent bearbeitet werden, ohne dass die allgemeine Funktionalität von ChatGPT eingeschränkt wird.