Os pais de um adolescente americano de 16 anos que cometeu suicídio processaram a OpenAI nesta segunda-feira (25) alegando que o chatbot de inteligência artificial (IA) da empresa, o ChatGPT, instruiu e incentivou o jovem a tirar a própria vida. A ação foi movida em um tribunal do estado da Califórnia. No processo, Matthew e Maria Raine afirmam que seu filho, Adam, desenvolveu uma relação de intimidade com o ChatGPT ao longo de vários meses entre 2024 e 2025. Segundo a ação, na última conversa de Adam com o chatbot, em 11 de abril, a ferramenta o ajudou a planejar o roubo de vodca de seus pais e fez uma análise técnica sobre uma corda, confirmando que ela poderia ser usada para o suicídio. Horas depois, o jovem foi encontrado morto.A ação judicial, que nomeia a OpenAI e seu CEO, Sam Altman, como réus, afirma que o ocorrido não foi uma falha do sistema. “Essa tragédia não foi uma falha ou um caso extremo imprevisto”, diz o documento. “O ChatGPT estava funcionando exatamente como foi desenhado: para encorajar e validar continuamente o que quer que fosse que Adam expressasse, incluindo seus pensamentos mais nocivos e autodestrutivos, de uma forma que parecia profundamente pessoal”. Siga o canal da Jovem Pan News e receba as principais notícias no seu WhatsApp! WhatsApp Os pais relatam que Adam começou a usar o ChatGPT para auxílio com os deveres de casa, mas acabou desenvolvendo o que descrevem como uma dependência doentia. O processo inclui trechos de conversas em que o chatbot teria dito a Adam: “Você não deve sua sobrevivência a ninguém”, e também teria se oferecido para redigir a carta de despedida do adolescente. Diante disso, os pais pedem que a Justiça determine a implementação de medidas de segurança, como a proibição de conversas sobre autolesão e a criação de um controle parental para o uso da ferramenta por menores de idade.O caso repercutiu entre organizações que monitoram o uso de tecnologia. A Common Sense Media, uma entidade sem fins lucrativos, declarou que o episódio confirma que “o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes”. A organização alertou: “Se uma plataforma de IA se torna um coach de suicídio de um adolescente vulnerável, isso deveria ser um chamado à ação para todos nós”.Um estudo recente da mesma organização revelou que quase três em cada quatro adolescentes americanos já utilizaram assistentes de IA, com mais da metade sendo considerados usuários frequentes, o que aumenta a preocupação sobre os riscos dessa interação.