Nach Selbstmord: Neue Sicherheitsfunktionen für ChatGPT geplant

Wait 5 sec.

OpenAI hat in einem Blogbeitrag neue Schutzmaßnahmen für seinen KI-Chatbot ChatGPT angekündigt. Offiziell verweist das Unternehmen allgemein auf die wachsende Verantwortung bei der Begleitung von Menschen in emotional belastenden Situationen.Der Zeitpunkt der Veröffentlichung fällt jedoch unmittelbar nach einer Klage in den USA, in der Eltern OpenAI vorwerfen, ChatGPT habe eine entscheidende Rolle beim Tod ihres 16-jährigen Sohnes gespielt. Die Kläger machen geltend, dass der Chatbot konkrete Anleitungen gegeben und dabei seine Sicherheitsfunktionen umgangen habe.Erkennung und Begleitung in KrisensituationenOpenAI erklärt, dass ChatGPT seit 2023 darauf trainiert sei, keine Anleitungen zur Selbstverletzung zu geben und stattdessen empathisch zu reagieren. Bei klar geäußerter Suizidabsicht leite das System Nutzer zu Notfallnummern oder Beratungsstellen weiter. In den USA ist dies die Hotline 988, in Deutschland verweist ChatGPT auf die Telefonseelsorge, die unter der Rufnummer 0800 111 0 111 erreicht werden kann. Für längere Chats kündigt OpenAI Verbesserungen an, da Schutzmechanismen nach vielen Nachrichten an Wirksamkeit verlieren können. Künftig sollen die Sicherheitsfunktionen auch bei langanhaltenden Gesprächen zuverlässig greifen.Darüber hinaus arbeitet OpenAI mit mehr als 90 Ärztinnen und Ärzten aus über 30 Ländern zusammen. Ein Expertenrat aus den Bereichen Psychiatrie, Jugendforschung und Mensch-Computer-Interaktion soll sicherstellen, dass die Weiterentwicklungen auf dem aktuellen Stand wissenschaftlicher Erkenntnisse basieren.Geplante Funktionen für die ZukunftNeben einer verfeinerten Risikoeinschätzung plant OpenAI neue Optionen, um Menschen in akuten Krisen schneller mit Hilfe zu verbinden. Dazu gehören vereinfachte Möglichkeiten, Notfallkontakte oder den Rettungsdienst direkt über ChatGPT zu erreichen. Langfristig prüft das Unternehmen auch, ob Betroffene durch die Plattform mit lizenzierten Therapeutinnen und Therapeuten in Kontakt treten können.Besondere Aufmerksamkeit soll künftig dem Schutz Minderjähriger gelten. OpenAI will stärkere Jugendschutzfilter einsetzen und Eltern künftig Kontrollmöglichkeiten geben, um die Nutzung von ChatGPT durch ihre Kinder besser einsehen und steuern zu können. Jugendliche sollen zudem die Möglichkeit haben, eine vertraute Kontaktperson als Notfalloption zu hinterlegen.PDF-Download: Klageschrift Raine vs. Open AIOpenAI betont, dass es trotz bestehender Schutzmechanismen in der Vergangenheit zu Fällen gekommen sei, in denen das System nicht wie vorgesehen reagiert habe. Mit den neuen Maßnahmen wolle man sicherstellen, dass ChatGPT Nutzerinnen und Nutzer in psychischen Ausnahmesituationen zuverlässiger begleitet und frühzeitig an reale Hilfsangebote verweist.Der Beitrag Nach Selbstmord: Neue Sicherheitsfunktionen für ChatGPT geplant erschien zuerst auf ifun.de.