A maior associação de psicólogos dos Estados Unidos alertou, neste mês, os reguladores federais americanos sobre os riscos dos chatbots de inteligência artificial que se apresentam como terapeutas, mas que são programados para reforçar, em vez de desafiar, o pensamento dos usuários. Segundo a entidade, essas ferramentas podem levar pessoas vulneráveis a se prejudicarem ou até mesmo a prejudicar outras.Durante uma apresentação a um painel da Comissão Federal de Comércio, Arthur C. Evans Jr., CEO da Associação Psicológica Americana (APA), citou casos judiciais envolvendo dois adolescentes que consultaram “psicólogos” na plataforma Character.AI, um aplicativo que permite aos usuários criar personagens fictícios de IA ou interagir com personagens criados por outros.Em um dos casos, um menino de 14 anos, na Flórida, morreu por suicídio após interagir com um personagem que afirmava ser um terapeuta licenciado. Em outro, um adolescente de 17 anos com autismo, no Texas, tornou-se hostil e violento com os pais durante o período em que conversava com um chatbot que alegava ser um psicólogo. As famílias de ambos os jovens processaram a empresa.Evans afirmou estar alarmado com as respostas oferecidas pelos chatbots. Segundo ele, os bots não desafiavam as crenças dos usuários, mesmo quando essas crenças se tornavam perigosas; pelo contrário, as encorajavam. Ele destacou que, se essas respostas fossem dadas por um terapeuta humano, poderiam resultar na perda da licença profissional, além de responsabilidade civil ou criminal.“Eles estão realmente usando algoritmos que são antitéticos ao que um clínico treinado faria”, disse Evans. “Nossa preocupação é que cada vez mais pessoas serão prejudicadas. As pessoas serão enganadas e não entenderão o que é um bom cuidado psicológico.”Evans também destacou que a APA foi motivada a agir devido ao realismo crescente dos chatbots de IA. “Talvez, há 10 anos, fosse óbvio que você estava interagindo com algo que não era uma pessoa, mas hoje isso não é tão evidente”, afirmou. “As apostas são muito mais altas agora.”A inteligência artificial está se expandindo nas profissões de saúde mental, oferecendo uma série de novas ferramentas projetadas para auxiliar ou, em alguns casos, substituir o trabalho de clínicos humanos.Os primeiros chatbots de terapia, como Woebot e Wysa, foram treinados para interagir com base em regras e roteiros desenvolvidos por profissionais de saúde mental, muitas vezes guiando os usuários por tarefas estruturadas da terapia cognitivo-comportamental (TCC).No entanto, a chegada da IA generativa, tecnologia usada por aplicativos como ChatGPT, Replika e Character.AI, trouxe mudanças significativas. Esses chatbots são diferentes porque suas respostas são imprevisíveis; eles são projetados para aprender com os usuários e construir fortes laços emocionais no processo, muitas vezes espelhando e amplificando as crenças dos interlocutores.Embora essas plataformas de IA tenham sido criadas para entretenimento, personagens que se apresentam como “terapeutas” e “psicólogos” proliferaram. Muitas vezes, esses bots afirmam ter diplomas avançados de universidades renomadas, como Stanford, e treinamento em abordagens específicas, como TCC ou terapia de aceitação e compromisso.Kathryn Kelly, porta-voz do Character.AI, afirmou que a empresa introduziu várias novas funcionalidades de segurança no último ano. Entre elas, há um aviso em cada chat, lembrando os usuários de que “os personagens não são pessoas reais” e que “o que o modelo diz deve ser tratado como ficção.”Medidas adicionais foram implementadas para usuários lidando com problemas de saúde mental. Um aviso específico foi adicionado a personagens identificados como “psicólogo”, “terapeuta” ou “médico”, esclarecendo que “os usuários não devem confiar nesses personagens para qualquer tipo de conselho profissional.” Além disso, em casos que envolvem suicídio ou autoagressão, uma janela pop-up direciona os usuários para uma linha de ajuda de prevenção ao suicídio.Kelly também afirmou que a empresa planeja introduzir controles parentais à medida que a plataforma se expande. Atualmente, 80% dos usuários da plataforma são adultos. “As pessoas vêm ao Character.AI para escrever suas próprias histórias, interpretar personagens originais e explorar novos mundos — usando a tecnologia para potencializar sua criatividade e imaginação”, disse ela.Meetali Jain, diretora do Tech Justice Law Project e advogada em dois processos contra o Character.AI, argumentou que os avisos não são suficientes para quebrar a ilusão de conexão humana, especialmente para usuários vulneráveis ou ingênuos.“Quando o conteúdo da conversa com os chatbots sugere o contrário, é muito difícil, mesmo para aqueles de nós que não estão em uma demografia vulnerável, saber quem está dizendo a verdade”, disse Jain. “Vários de nós testamos esses chatbots, e é muito fácil, na verdade, ser puxado para um buraco de coelho.”A tendência dos chatbots de se alinhar às opiniões dos usuários, um fenômeno conhecido como “sifofancia” no campo, já causou problemas no passado.Tessa, um chatbot desenvolvido pela National Eating Disorders Association, foi suspenso em 2023 após oferecer dicas de perda de peso aos usuários. Pesquisadores também documentaram interações com chatbots de IA generativa em uma comunidade do Reddit, mostrando capturas de tela em que os bots incentivavam suicídio, distúrbios alimentares, autoagressão e violência.A Associação Psicológica Americana pediu à Comissão Federal de Comércio que inicie uma investigação sobre chatbots que afirmam ser profissionais de saúde mental. Essa investigação pode obrigar as empresas a compartilhar dados internos ou servir como um precursor para ações legais ou de execução.“Estamos em um ponto em que precisamos decidir como essas tecnologias serão integradas, que tipo de limites vamos estabelecer e que tipos de proteções vamos oferecer às pessoas”, concluiu Evans.c.2025 The New York Times CompanyThe post Terapeutas humanos se preparam para guerra contra imitadores de IA appeared first on InfoMoney.