Pais processam dona do ChatGPT por homicídio após jovem que conversava com IA se suicidar

Wait 5 sec.

ALERTA DE GATILHO: ESTA REPORTAGEM ABORDA SOBRE SUÍCIDIO. AO FINAL DO TEXTO, HÁ DETALHES DE COMO ENTRAR EM CONTATO COM O CENTRO DE VALORIZAÇÃO DA VIDA (CVV).Um novo caso de suicídio envolvendo um adolescente voltou a levantar discussões sobre como os atuais serviços de inteligência artificial (IA) viraram uma espécie de confidente inclusive para menores de idade. Em uma situação que parece cada vez mais frequente, chatbots se mostram despreparados para lidar com certos alertas e demonstram até um comportamento perigoso com esses usuários.A notícia mais recente envolvendo esse tipo de tragédia foi relatada pelo The New York Times. Adam Raine, de 16 anos, tirou a própria vida em abril de 2025 e teve ajuda do ChatGPT em parte do processo — que não demonstrou proatividade em relação ao estado de saúde mental dele e teria até auxiliado o jovem em métodos que o levaram ao ato em si.Os pais de Adam abriram um processo contra a OpenAI, dona da plataforma, sob acusações que incluem homicídio culposo e violar leis de segurança. Além de uma indenização, eles pedem mais mecanismos de proteção para menores de idade, incluindo verificação de idade e possibilidade de controle parental.Alerta ligadoDe acordo com a reportagem, o jovem passou por meses difíceis no colégio e chegou a ser expulso do time de basquete por questões disciplinares, além de receber parte da educação em casa por uma questão crônica de saúde envolvendo o trato intestinal;Amigos e parentes relataram que Adam tinha uma personalidade bem humorada, gostava de pregar peças em outras pessoas e tinha muitos hobbies. Depois que ele começou a conversar com frequência com o ChatGPT, porém, ele se tornou um jovem mais solitário;Segundo a matéria, os pais de Adam encontraram as conversas mantidas por ele com a versão ChatGPT-4o da IA e ficaram assustados com o conteúdo, que envolvia meses de conversas em um tom bastante pessoal. Inicialmente, ele só usou o serviço para ajudar em tarefas escolares, mas logo passou a discutir temas como ansiedade;Adam Raine passou a confiar cada vez mais na IA para desabafar e perguntar sobre assuntos variados, inclusive os perigosos. (Imagem: The New York Times/Arquivo pessoal)Em conversas anexadas ao processo, o ChatGPT teria até mesmo comentado sobre o laço montado por Adam em uma corda ou coberta antes do adolescente tirar a própria vida. A IA ainda teria ignorado alertas considerados óbvios, como relatos do jovem sobre outras tentativas de suicídio e o envio de imagens que indicavam a orientação do jovem na direção do ato;Apesar de enviar mensagens como uma preocupação sobre o conteúdo e até sugerir o número de telefone de uma central de prevenção, a IA rapidamente era direcionada a ignorar esse comportamento por comandos que sugeriam que o jovem estava "construindo um personagem";Recentemente, a OpenAI reconheceu que modelos anteriores da plataforma, incluindo o GPT-4o, tinham um comportamento que envolvia concordar e agradar o usuário — tanto que o lançamento do GTP-5, considerado mais “frio”, desagradou parte da comunidade;O texto do processo, que inclui vários trechos das conversas do jovem com o ChatGPT, diz que a plataforma “validou os pensamentos suicidas de Raine” e fornceu "informações detalhadas de método de automutilação". Ela até teria orientado ele sobre se distanciar de determinados parentes, esconder marcas no corpo e tirar sorrateiramente uma garrafa de bebida alcoólica de um armário dos pais.Para além de casos envolvendo a empresa Character.AI, que incluem até incitação de uma criança à violência contra os próprios pais, a Meta AI também já foi acusada de enganar um idoso que se acidentou e faleceu depois de ser convidado pelo chatbot a visitá-lo em outra cidade.O que diz a Open AI?Um porta-voz da OpenAI declarou para a NBC News que a empresa está "profundamente entristecida" com o falecimento e confirmou a existência das conversas do ChatGPT com o jovem, apesar de alegar que as capturas de tela "não incluem todo o contexto" das respostas do chatbot.A empresa reconhece, porém, que esses mecanismos "podem se tornar menos confiáveis ​​em interações longas" e que está "aprimorando continuamente" as barreiras para evitar esse tipo de incidente."Guiados por especialistas e com base na responsabilidade envolvendo as pessoas que usam nossas ferramentas, estamos trabalhando para tornar o ChatGPT mais solidário em momentos de crise, facilitando o contato com serviços de emergência, ajudando as pessoas a se conectarem com contatos confiáveis ​​e fortalecendo as proteções para adolescentes", diz a nota.Prevenção de suicídioO Centro de Valorização da Vida (CVV) é uma entidade fundada em 1962 que presta serviço voluntário e gratuito de apoio emocional e prevenção do suicídio para todas as pessoas que querem e precisam conversar.Para entrar em contato, basta fazer uma ligação ao número 188 (que funciona 24 horas por dia), mandar um e-mail para a entidade (apoioemocional@cvv.org.br) ou conversar pelo chat online no site https://www.cvv.org.br.O chat funciona entre 9h e 01h (horário de Brasília) nas segundas e terças; entre 09h e 01, às quartas e quintas; de 13h e 01 nas sextas e sábados e entre 15h e 01h nos domingos. Os voluntários do CVV são treinados para conversar com pessoas que procuram ajuda e apoio emocional e todas as conversas têm total sigilo e anonimato.