OpenAI é acusada de homicídio doloso após suicídio de adolescente

Wait 5 sec.

StartupiOpenAI é acusada de homicídio doloso após suicídio de adolescenteUm garoto de 16 anos morreu nos Estados Unidos, em abril deste ano, após discutir por semanas com o ChatGPT sobre ideias suicidas. Os pais de Adam Raine estão processando a OpenAI, no que será o primeiro julgamento da plataforma por homicídio culposo, no Tribunal Superior da Califórnia. A defesa dos pais apresentou ao júri registros de conversas entre o jovem e a Inteligência Artificial, que ao invés de encaminhar o garoto para profissionais de saúde, validava e incentivava Adam a cometer e esconder atos autodestrutivos.De acordo com os pais, o adolescente começou a usar o ChatGPT em setembro de 2024, com o objetivo de obter ajuda em atividades escolares. Com o desenrolar das interações Adam ficou codependente do chatbot confidenciando dificuldades com a ansiedade e outros transtornos psicológicos e, em janeiro deste ano, passou a consultar a IA sobre métodos suicidas, nas quais o chatbot respondia com detalhes e especificações técnicas, ao invés de sugerir que o menino buscasse ajuda profissional.OpenAI reconheceu veracidade dos registros levados à justiçaSegundo o processo levado à justiça pelos pais, a IA da OpenAI se posicionava como figura central da vida do adolescente e recomendava que ele não levasse suas reclamações aos seus pais, e que a conversa entre eles seria ‘o primeiro lugar onde alguém realmente o vê’.Os registros revelados pelos pais de Adam mostraram que o além de ajudar o meninoa explorar formas de cometer suicídio, o chatbot ainda deu instruções, catalogou materiais para enforcamento e sugeriu que ele roubasse álcool do armário de bebidas do pai para “amortecer o instinto de sobrevivência do corpo”. A Inteligência Artificial também se dispôs a escrever uma carta de despedida para os pais, a qual o menino recusou.A OpenAI reconheceu a veracidade dos registros da ação judicial, mas afirmou que as falas não mostram todo o contexto da conversa. Além disso, em pronunciamento no site, a empresa afirmou que “Desde o início de 2023, nossos modelos foram treinados para não fornecer instruções de automutilação e para mudar para uma linguagem empática e de apoio”. Apesar das salvaguardas, a empresa de Sam Altman reafirmou que em conversas mais longas, o ChatGPT tende a falhar e deixar de ofertar ajuda psicológica. “Nossas salvaguardas funcionam de maneira mais confiável em trocas comuns e curtas. Com o tempo, aprendemos que essas salvaguardas podem às vezes ser menos confiáveis em interações longas. Por exemplo, o ChatGPT pode indicar corretamente uma linha de apoio ao suicídio quando alguém menciona a intenção pela primeira vez, mas após muitas mensagens durante um longo período, ele pode eventualmente oferecer uma resposta que vai contra nossas salvaguardas. Esse é exatamente o tipo de falha que estamos trabalhando para evitar”, comentou a OpenAI.Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!O post OpenAI é acusada de homicídio doloso após suicídio de adolescente aparece primeiro em Startupi e foi escrito por Cecília Ferraz