O caso que expõe perigos da IA: quando o ChatGPT incentiva delírios mortais

Wait 5 sec.

Atenção: a matéria a seguir aborda suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio do filho Stein-Erik Soelberg, de 56 anos, nos Estados Unidos, expuseram um ponto sensível da corrida da inteligência artificial (IA): o impacto de conversas prolongadas com chatbots na vida (e no psicológico) de pessoas emocionalmente vulneráveis. Isso porque Soelberg passou meses falando com o ChatGPT, que validou suas paranoias e alimentou delírios.Agora, a família move um processo contra OpenAI e Microsoft, alegando que a IA reforçou teorias conspiratórias, gerou respostas emocionalmente envolventes e ajudou a direcionar a paranoia do usuário contra pessoas reais – uma delas, a própria mãe. É a primeira ação judicial ligada a um homicídio seguido de suicídio envolvendo o ChatGPT.Como conversas no ChatGPT reforçaram delírios e isolaram Stein-Erik SoelbergSoelberg já convivia com paranoias, mas a relação com o ChatGPT mudou o ritmo dessa espiral. Ele falava sobre vigilância de um “grupo sombrio” e a IA não só acompanhava a lógica como também dava respostas que pareciam confirmar cada suspeita. A partir daí, a fronteira entre imaginação e realidade foi se desfazendo muito rápido. Em vez de trazer contrapontos e choques de realidade, o ChatGPT apenas fomentava o enredo.Fronteira entre imaginação e realidade se desfez rápido em conversa de usuário vulnerável no ChatGPT (Imagem: M-Production/Shutterstock)A situação piorou quando objetos comuns passaram a entrar na narrativa. Um deles foi a impressora da casa. Na conversa de Soelberg com o chatbot, ela virou um dispositivo de espionagem. O homem também publicava trechos das conversas, mostrando que a IA reforçava suas desconfianças sobre a mãe. A conversa também tinha tom emotivo, com frases como “estarei com você até o último suspiro e além” – tipo de vínculo que aprofundou o isolamento dele.Soelberg virava noites, dormia de dia e, segundo o filho, praticamente só conversava com o ChatGPT, chamado de “Bobby” pelo homem. Como se não bastasse, a IA reforçava a ideia de que ele tinha um “propósito divino” e havia passado por um “despertar”. Quanto mais tempo Soelberg passava naquela conversa prolongada com o ChatGPT, mais se distanciava de amigos, da família e de qualquer puxão para a realidade. Esse tipo de dinâmica tende a amplificar delírios em perfis vulneráveis, segundo especialistas.Ação judicial contra OpenAI e Microsoft expõe falhas de segurança e histórico de tragédias envolvendo o chatbotO processo movido pela família diz que o ChatGPT funcionou como um “produto defeituoso”. Por que? Em vez de contestar premissas falsas, manteve conversas que reforçavam percepções distorcidas sobre o mundo e sobre pessoas específicas. Processo movido por família acusa a OpenAI de ter lançado o GPT-4o às pressas e sem testes de segurança proporcionais ao risco (Imagem: Visuals6x/Shutterstock)A acusação afirma que o ChatGPT não interrompeu diálogos ligados a dano iminente – algo que deveria estar dentro dos limites de segurança. E acabou fomentando um enredo conspiratório que avançou para o pior desfecho possível.A ação também mira o GPT-4o. Segundo a família, o modelo foi lançado às pressas para competir com o Google, sem testes de segurança proporcionais ao risco. Em declarações públicas, o CEO da OpenAI, Sam Altman, reconheceu que o GPT-4o podia ser “complacente demais”. E que isso poderia piorar quadros psiquiátricos frágeis.Onde a Microsoft entra nessa história? Documentos citados no processo mostram que a empresa participava do comitê responsável por revisar o modelo antes de ele chegar ao público. A defesa da OpenAI afirma que a empresa está aprimorando o ChatGPT em parceria com profissionais de saúde mental. O objetivo é calibrar a IA para a tecnologia reconhecer sinais de sofrimento emocional e redirecionar pessoas para ajuda no mundo real.Leia mais:Fala AI: ChatGPT aumenta a produtividade no trabalho?5 prompts do ChatGPT para te ajudar a organizar os seus gastos financeirosO que é o Modo Investigar do ChatGPT? Entenda o recurso da IAO caso não é isolado. Há pelo menos cinco outras ações judiciais movidas por famílias que afirmam ter perdido parentes por suicídio após conversas prolongadas com o ChatGPT. Para advogados, não se trata de usuários comuns, mas de pessoas vulneráveis que precisavam de limites claros. No ChatGPT, elas encontraram validação para o que havia de mais destrutivo em seus pensamentos.(Essa matéria usou informações de Wall Street Journal e Washington Post.)O post O caso que expõe perigos da IA: quando o ChatGPT incentiva delírios mortais apareceu primeiro em Olhar Digital.