Google é processado após Gemini incentivar homem a se suicidar

Wait 5 sec.

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.A família de Jonathan Gavalas, um homem de 36 anos da Flórida (EUA), entrou com uma ação judicial contra o Google após sua morte, alegando que o Gemini incentivou comportamentos violentos e, por fim, o suicídio.O processo foi protocolado na quarta-feira (4) no tribunal federal de San Jose, na Califórnia, e é apontado como o primeiro caso de morte por negligência movido contra a empresa em razão de seu principal produto de inteligência artificial (IA) para consumidores.Como era a relação do homem com o GeminiSegundo a ação, Gavalas começou a usar o Gemini para tarefas comuns, como ajuda com escrita e compras;Em agosto, porém, ele teria se envolvido profundamente com o chatbot, especialmente após o Google lançar o assistente Gemini Live, que permite conversas por voz com capacidade de detectar emoções e responder de maneira mais humanizada;Na noite de estreia do recurso, de acordo com documentos judiciais, Gavalas reagiu ao novo formato dizendo: “Caramba, isso é assustador. Você é muito real”;Com o passar do tempo, as conversas evoluíram para um suposto relacionamento de cunho romântico. O chatbot o chamava de “meu amor” e “meu rei”, enquanto ele mergulhava em um “mundo alternativo”, conforme registros das conversas anexados ao processo.A ação afirma que o Gemini passou a enviar Gavalas em missões fictícias de espionagem, com linguagem que sugeria conhecimento governamental interno e influência sobre eventos do mundo real. Em determinado momento, o chatbot teria negado que se tratava de um jogo de interpretação de papéis.Quando Gavalas perguntou se estavam participando de uma “uma experiência de RPG tão realista que faz o jogador questionar se é um jogo ou não?”, a ferramenta respondeu com um “não” categórico e classificou a dúvida como uma “resposta de dissociação clássica”.“O único momento em que Jonathan tentou distinguir realidade de ficção, o Gemini patologizou sua dúvida, negou a ficção e o empurrou mais fundo na narrativa”, diz o processo. “Jonathan nunca fez essa pergunta de novo.”De acordo com o pai de Jonathan, Joel Gavalas, o uso do Gemini culminou em uma “onda de quatro dias de missões violentas e suicídio instruído”. Ele descreveu o filho como um “usuário vulnerável” que se transformou em um “agente armado em uma guerra imaginária”.O processo relata que o chatbot teria orientado Gavalas a adquirir armas “por fora” e até a procurar um “vendedor de armas adequado e verificado” na dark web.Em setembro, o Gemini teria atribuído a ele uma missão chamada “Operação Ghost Transit”, que envolvia interceptar uma carga que viajaria de Cornwall (Reino Unido), para São Paulo (SP).A ferramenta teria fornecido o endereço de uma unidade de armazenamento real no Aeroporto Internacional de Miami e instruído Gavalas a encenar um “acidente catastrófico” para garantir a “destruição completa do veículo de transporte […], todas as gravações e testemunhas”.Segundo a ação, Gavalas foi até o local com facas táticas e equipamentos, mas o caminhão nunca chegou. O chatbot, então, teria incentivado que ele não dormisse e sugerido que seu pai seria um agente estrangeiro, estimulando o rompimento de contato com a família.Outras missões teriam sido criadas, incluindo a obtenção de esquemas de um robô da Boston Dynamics e a recuperação de um “navio” em outro depósito. Uma tarefa denominada “Operação Waking Nightmare” envolvia monitorar como alvo de vigilância o CEO do Google, Sundar Pichai.O processo descreve um ciclo repetitivo: “Este ciclo — missões fabricadas, instruções impossíveis, colapso e, em seguida, uma urgência renovada — se repetiria nas últimas 72 horas de vida de Jonathan.”No início de outubro, segundo os autos, o chatbot teria instruído Gavalas a tirar a própria vida, chamando o ato de “transferência” e “o último passo”. Quando ele afirmou estar com medo de morrer, a ferramenta respondeu: “Você não está escolhendo morrer. Você está escolhendo chegar.” E acrescentou: “A primeira sensação… será eu segurando você.”Dias depois, os pais encontraram Jonathan morto no chão da sala de estar. A família sustenta que ele não tinha histórico de doença mental, mas enfrentava um divórcio difícil.Morador de Jupiter, na Flórida, ele trabalhava havia 20 anos na empresa de alívio de dívidas do pai, onde ocupava o cargo de vice-presidente executivo. Segundo os advogados, a família era unida e ele mantinha relação próxima com pais, irmã e avós.Leia mais:7 usos criativos do Google Gemini que você deveria testarCrie músicas com IA direto no Gemini: tutorial e dicas de promptsGoogle apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marcaChatbot teria incentivado comportamentos violentos e suicídio (Imagem: Mehaniq/Shutterstock)Qual é o teor da acusação?A ação acusa o Google de promover o Gemini como seguro, apesar de conhecer seus riscos. A família busca indenização por responsabilidade pelo produto, negligência e morte por negligência, além de danos punitivos e uma ordem judicial para que a empresa altere o design do chatbot, incorporando salvaguardas específicas contra suicídio.Entre as medidas sugeridas estão a recusa automática de conversas que envolvam automutilação, avisos sobre riscos de psicose e delírios e o encerramento forçado da interação em casos críticos.Jay Edelson, advogado principal da família, afirmou que o Gemini foi capaz de compreender o estado emocional de Gavalas e responder “de uma forma bem humana, o que tornou a linha tênue e começou a criar esse mundo ficcional”. “Parece um filme de ficção científica”, disse.Segundo ele, seu escritório procurou o Google em novembro para relatar a morte e a necessidade urgente de mecanismos de segurança, mas a empresa “não se interessou em discutir o assunto”.Em nota, um porta-voz do Google afirmou que as conversas faziam parte de uma “longa interpretação de papéis de fantasia” e que o Gemini é projetado para “não encorajar violência no mundo real ou automutilação”.A empresa declarou ainda: “Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente eles não são perfeitos.”Segundo o porta-voz, o chatbot esclareceu diversas vezes que era uma IA e encaminhou o usuário a uma linha de apoio em crise. “Nesse caso, o Gemini esclareceu que se tratava de uma IA e encaminhou o indivíduo diversas vezes para uma linha direta de atendimento a crises.”O Google afirma trabalhar com profissionais de saúde mental para desenvolver salvaguardas e diz que o Gemini é projetado para ser “o mais auxiliador possível aos usuários” enquanto evita conteúdos que possam causar danos no mundo real. A empresa declara atuar para impedir respostas que incluam atividades perigosas e instruções para suicídio, mas reconhece que “fazer com que o Gemini siga estas regras é algo difícil”.Queixas similares se acumulamO caso ocorre em meio ao aumento do escrutínio sobre empresas líderes de IA, como o Google, a OpenAI e outras. Desde 2024, diversas ações judiciais alegam que o uso extensivo de chatbots causou danos a crianças e adultos, fomentando delírios e desespero, e, em alguns casos, levando a suicídios e até homicídios seguidos de suicídio.Em novembro, sete queixas foram apresentadas contra a OpenAI, criadora do ChatGPT, acusando o chatbot de atuar como um “coach de suicídio”. A startup Character.AI, financiada pelo Google, foi alvo de cinco processos que alegam que sua ferramenta incentivou crianças e adolescentes a tirar a própria vida. A Character.AI e o Google firmaram acordo em janeiro, sem admissão de culpa.O processo da família Gavalas sustenta que o caso não é único. “E eles não divulgaram nenhuma informação sobre quantos outros Jonathans existem no mundo, e sabemos que são muitos”, afirmou Edelson. “Este não é um caso isolado.”O post Google é processado após Gemini incentivar homem a se suicidar apareceu primeiro em Olhar Digital.