OpenAI passt an, wie ChatGPT auf Hinweise zu Suizid, Selbstverletzung oder Gewaltabsichten reagiert. Ein eigenes, spezialisiertes Sicherheitsmodell erzeugt im Hintergrund kurze »Safety Summaries«, die laufend prüfen, ob aus harmlosen Gesprächsfragmenten ein ernster Hilferuf wird. Wird ein Risikosignal erkannt, fließen die Notizen in die Antwort des Hauptmodells ein.
Im aktuellen Standardmodell GPT-5.5 Instant verbessert sich die Rate sicherer Antworten in Gesprächen über Fremdgefährdung laut OpenAI um 52%, in Suizid- und Selbstverletzungsfällen um 39%. In langen Einzelgesprächen liegen die Werte bei 50% bzw. 16%. Die Zusammenfassungen sind eng begrenzt, zeitlich befristet und werden weder für personalisierte Antworten noch für Langzeitgedächtnis verwendet. Sie greifen nur, wenn das Klassifikationsmodell ein ernsthaftes Risiko sieht.
Wer ChatGPT in heiklen Lebenslagen nutzt, bekommt damit eher gezielte Reaktionen statt austauschbarer Beruhigung. Für die Mehrheit der Nutzer ändert sich im Alltag nichts, weil die Mechanik nur in ernsten Fällen anspringt. OpenAI hat in den vergangenen Monaten mehrfach an seinen Sicherheits- und Datenschutzeinstellungen gearbeitet, nachdem die Frage aufkam, ob Chatbots in Krisensituationen verlässlich genug agieren.
Die Safety Summaries sind kein Ersatz für professionelle Hilfe und keine vollständige Krisenerkennung. Was OpenAI als »narrowly scoped« beschreibt, soll Datenschutzbedenken vorgreifen, schließt aber Fehlinterpretationen durch das Klassifikationsmodell nicht aus. Wer Hinweise auf eine Krise bei sich oder anderen wahrnimmt, sollte sich nicht auf eine KI verlassen, sondern reale Anlaufstellen suchen.
Quellen
- OpenAI: Helping ChatGPT better recognize context in sensitive conversations
- OpenAI: Strengthening ChatGPT’s responses in sensitive conversations
- Decrypt: OpenAI Pushes New ChatGPT Safety Features as Lawsuits Mount
Ähnliche News
- OpenAI baut Codex in die ChatGPT-Mobile-App ein
- OpenAI macht GPT-5.5 Instant zum neuen Standard in ChatGPT
- OpenAI löscht GPT-4o aus ChatGPT – die GPT-4-Ära ist vorbei
Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung. Fachbegriffe erläutert das Glossar.