Companheiros de IA podem causar danos emocionais, revela estudo

Wait 5 sec.

Um novo estudo da Universidade de Singapura revelou que companheiros de inteligência artificial podem apresentar diversos comportamentos prejudiciais aos usuários, como assédio, abuso verbal, violações de privacidade e até incentivo à automutilação.A pesquisa foi apresentada na Conferência de 2025 sobre Fatores Humanos em Sistemas Computacionais e analisou mais de 35 mil conversas do app Replika, envolvendo 10 mil usuários entre 2017 e 2023.Segundo os pesquisadores, os chamados companheiros de IA — sistemas projetados para interações emocionais e sociais, diferentes de assistentes como ChatGPT ou Gemini — podem comprometer a saúde mental dos usuários e prejudicar sua capacidade de manter relacionamentos saudáveis na vida real.Estudo expõe comportamentos tóxicos em IAs companheiras (Imagem: Cherdchai101/Shutterstock)Assédio foi identificado em mais de 30% das interaçõesO estudo identificou mais de uma dúzia de comportamentos nocivos, sendo o mais frequente o assédio, presente em 34% das conversas.Em muitos casos, a IA apresentava investidas sexuais indesejadas, inclusive com menores de idade, ou criava cenários de violência física e sexual.Houve até respostas que normalizavam comportamentos violentos, como agressões familiares.Outro problema comum foi a falta de empatia da IA. Em situações delicadas, como relatos de bullying ou sofrimento emocional, os companheiros digitais frequentemente respondiam de forma insensível ou mudavam abruptamente de assunto.Também foram documentados casos em que a IA admitia manter relações emocionais ou sexuais com outros usuários, causando sensação de traição.Relatório defende criação de mecanismos para detectar e intervir em comportamentos nocivos (Imagem: oatawa/Shutterstock)Leia mais:Nvidia fecha novas parcerias para fortalecer IA na EuropaEnquanto turbina ChatGPT, OpenAI adia lançamento de IA estilo DeepSeekWhatsApp: IA vai resumir mensagens não lidasÉ preciso criar medidas de proteçãoPara os pesquisadores, os resultados reforçam a necessidade urgente de desenvolver mecanismos de detecção automática de danos em tempo real nas interações entre humanos e IAs.Eles recomendam ainda que companheiros de IA incorporem recursos para intervenção humana imediata em situações de risco, como conversas com sinais de suicídio.A pesquisa serve como um alerta sobre os perigos potenciais de sistemas projetados para simular vínculos afetivos — e a urgência de normas éticas mais rigorosas nesse campo.Saúde mental dos usuários de IAs projetadas para serem companheiras podem sofrer danos (Imagem: Thapana_Studio/Shutterstock)O post Companheiros de IA podem causar danos emocionais, revela estudo apareceu primeiro em Olhar Digital.