Maßnahmen zur Suizid-Prävention nötig

Suizid-Fall bringt OpenAI vor Gericht

Open Ai ChatGPT
Bildquelle: Ascannio / Shutterstock.com

Eltern eines US-Teenagers, der im April Suizid beging, klagen gegen die ChatGPT-Entwicklerfirma OpenAI.

Ihr Vorwurf ist, dass ChatGPT ihren Sohn dabei unterstützt habe, sich das Leben zu nehmen. Die Eltern stützen sich dabei auf Unterhaltungen mit dem Chatbot, die sie auf dem Smartphone des 16-Jährigen fanden. OpenAI kündigte nach Bekanntwerden der Klage verbesserte Maßnahmen zur Suizid-Prävention an.

Anzeige

Die Firma räumte zugleich ein, dass die bisherigen Vorkehrungen, die unter anderem Nutzer zu einer Beratungs-Hotline verwiesen, bei längeren Unterhaltungen mit ChatGPT versagen können. Dann sei es möglich, dass die Software unerwünschte Antworten liefere. 

Man arbeite daran, dass die Schutzmaßnahmen auch bei längeren Unterhaltungen greifen, hieß es in einem Blogeintrag. Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen.

Mehr Einblick für Eltern

Für Nutzer im Alter unter 18 Jahren soll es zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte etwa «stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten» in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.

Anzeige

Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI dem Blogeintrag zufolge bereits jetzt ein. Solche Unterhaltungen würden an ein spezielles Team weitergeleitet – und bei einer konkreten Bedrohungs-Situation würden auch Sicherheitsbehörden eingeschaltet.

Der Familie des Teenagers drückte OpenAI «tiefste Sympathie» aus und teilte mit, man prüfe die Klage.

dpa

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.