Relatos de funcionários e ex-funcionários da Meta e do TikTok indicaram que as empresas teriam flexibilizado a moderação de conteúdo para aumentar o engajamento, mesmo após identificarem riscos associados a esse tipo de prática. As informações foram reunidas pela BBC a partir de entrevistas com mais de uma dezena de fontes ligadas ao setor.Segundo os relatos, conteúdos classificados como “limítrofes” – que não violam diretamente as regras, mas incluem discurso de ódio, teorias conspiratórias e material potencialmente prejudicial – passaram a ser mais frequentes nos feeds. Um ex-engenheiro da Meta afirmou que a mudança teria sido motivada por pressões comerciais, como a queda no valor das ações e a necessidade de competir com o crescimento do TikTok.A disputa por audiência, especialmente após a popularização do formato de vídeos curtos, é apontada como um fator central nas decisões das empresas. O lançamento do Instagram Reels, em 2020, teria ocorrido com proteções insuficientes, segundo relatos internos. Pesquisas da própria Meta indicavam maior incidência de bullying, discurso de ódio e violência nesse formato em comparação com outras áreas da plataforma.Documentos internos também apontaram que os algoritmos incentivam a produção de conteúdos que geram mais reações emocionais, como indignação. Esse tipo de material tende a aumentar o tempo de permanência dos usuários e, consequentemente, a receita com publicidade, ainda que possa impactar negativamente o bem-estar do público.No TikTok, um funcionário da área de confiança e segurança, identificado pela BBC como “Nick”, afirmou que a empresa enfrentava dificuldades para lidar com o volume de denúncias. Segundo ele, casos envolvendo figuras políticas frequentemente recebiam prioridade em relação a conteúdos prejudiciais relacionados a menores de idade, com o objetivo de evitar pressões regulatórias.O denunciante também relatou que cortes e reorganizações nas equipes de moderação, incluindo a substituição parcial de funções por sistemas de inteligência artificial, reduziram a capacidade de resposta da plataforma. Como resultado, conteúdos ligados a violência, abuso e até terrorismo teriam aumentado em visibilidade.Outro ex-engenheiro do TikTok destacou que os sistemas de recomendação funcionam como uma “caixa-preta”, dificultando o controle direto sobre o que é exibido. Segundo ele, os algoritmos tratam conteúdos como dados abstratos, enquanto a responsabilidade por remover material nocivo recai sobre equipes separadas – uma divisão que nem sempre opera de forma eficaz.Usuários, especialmente adolescentes, relatam dificuldades em evitar conteúdos problemáticos. Mesmo utilizando ferramentas para personalizar o feed, muitos afirmam continuar recebendo recomendações de material violento ou ofensivo. Em casos mais extremos, há relatos de jovens que dizem ter sido influenciados por conteúdos que reforçam sentimentos de raiva ou visões extremistas.Autoridades de segurança no Reino Unido também apontam um aumento na circulação e na normalização de conteúdos racistas, violentos e extremistas nas redes sociais, indicando possíveis impactos no comportamento coletivo.Usuários adolescentes que falaram à BBC relataram ter visto conteúdo nocivo no Instagram e TikTok (Imagem: antoniodiaz / Shutterstock.com)O que dizem Meta e TikTok?As empresas negam as acusações;A Meta afirmou à BBC que não promove deliberadamente conteúdos nocivos e destaca investimentos em segurança e proteção de usuários;O TikTok, por sua vez, contesta as alegações e afirma que mantém sistemas robustos de moderação, além de ferramentas voltadas à segurança de adolescentes.O post TikTok e Meta teriam ampliado conteúdo nocivo para reter usuários, segundo relatos apareceu primeiro em Olhar Digital.