Vivemos a era da inteligência artificial generativa, e com ela, uma nova fronteira de desafios éticos, sociais e tecnológicos. Ferramentas como o Sora, da OpenAI, e o Veo 3, do Google DeepMind, são exemplos impressionantes do quanto evoluímos na criação de vídeos hiper-realistas, que emulam movimentos humanos naturais, ambientações perfeitas e até simulações emocionais convincentes.O salto tecnológico é fascinante. Mas ele traz consigo um efeito colateral que precisamos ficar atentos: a crise da verdade. Em um mundo onde qualquer imagem ou voz pode ser fabricada por uma IA, a linha entre o real e o artificial se torna cada vez mais tênue, e a confiança em evidências visuais e sonoras, cada vez mais frágil.O alerta é global e o Brasil está no epicentroSegundo o relatório “Truth Quest”, da OCDE (Organização para a Cooperação e Desenvolvimento Econômico), apenas 60% da população global consegue identificar conteúdos falsos ou enganosos. No Brasil, esse índice cai para 54%. Ainda mais preocupante é que somos o país que mais confia nas redes sociais como fonte principal de informação. Esse cenário não reflete apenas o avanço da IA, mas expõe um problema estrutural, como a nossa baixa cultura de verificação digital.No Brasil, só 54% sabem identificar conteúdo falso (Imagem: Vlyaks/Shutterstock)A tecnologia já está sendo usada para criar vídeos falsos com expressões faciais, gestos e vozes tão convincentes que até especialistas têm dificuldade em apontar a manipulação. Em muitos casos, esses conteúdos são criados com apelos emocionais fortes, feitos para viralizar e enganar.‘Ceticismo crítico’A IA não está apenas sendo usada para manipular eleições ou difamar figuras públicas. Ela compromete a confiança em instituições, enfraquece o jornalismo profissional, distorce a ciência e compromete a segurança digital. De acordo com pesquisa da Ipsos, mais da metade dos brasileiros (51%) acredita que a IA vai intensificar a disseminação de fake news, e os dados indicam que esse temor não é infundado.É por isso que, enquanto a tecnologia avança, nossa educação digital precisa correr ainda mais rápido. Para navegar num mundo de conteúdos sintéticos, precisamos desenvolver o que chamo de ceticismo crítico: a capacidade de questionar antes de compartilhar, de verificar antes de confiar.A IA já abala a confiança em tudo: ciência, mídia, democracia. E 51% dos brasileiros acham que ela vai piorar as fake news (Imagem: Tero Vesalainen/Shutterstock)Empresas de tecnologia têm papel essencial nessa equação. O Veo, por exemplo, conta com mecanismos que impedem o uso de imagens ou vozes de celebridades sem autorização, além de inserir marcas d’água invisíveis que podem ser reconhecidas por sistemas verificadores. Podemos vislumbrar um futuro próximo onde redes sociais como Instagram e Whatsapp tenham seus detectores de marcas d’água digitais e nos indiquem se um vídeo é real ou criado por IA. De qualquer forma, apesar de serem barreiras técnicas importantes, elas ainda não são o padrão e podem não ser o bastante.Leia mais:OpenAI integra Sora ao ChatGPT e melhora geração de imagensAssim como a Nvidia, Microsoft está perto de valer 4 trilhões. O que falta?Agora, Veo 3 também está disponível no Gemini – veja como usar de graçaNos falta um modelo robusto de governança global da IA que combine inovação com responsabilidade. Precisamos, sim, de regulação, não para que sufoque a criatividade, mas para que incentive a transparência, a prestação de contas e a segurança no uso dessas ferramentas.Crescimento inevitável, responsabilidade inadiávelSegundo a Grand View Research, o mercado global de IA generativa deve ultrapassar US$ 109 bilhões até 2030, com um crescimento médio anual acima de 35%. O avanço é inevitável, o que podemos (e devemos) controlar é a forma como lidamos com ele.A IA generativa vai movimentar mais de US$ 100 bi até 2030. O desafio não é parar a inovação — é educar, regular e preparar a sociedade para reconhecer o que é real. (Imagem: Frame Stock Footage)Não podemos frear a inovação por medo de seus riscos. O caminho é preparar a sociedade. Educar, regulamentar e capacitar as pessoas a identificar padrões de manipulação, a verificar fontes, a questionar intenções, entre outras ações.Se antes a verdade era distorcida por palavras, com as fake news, hoje ela pode ser fabricada em segundos por vídeos e vozes geradas por algoritmos. Mas isso não precisa nos paralisar. Pelo contrário: pode nos impulsionar a construir uma sociedade mais crítica, consciente e tecnicamente preparada.IA como aliada, não como ameaçaA inteligência artificial é uma ferramenta poderosíssima, com potencial para transformar positivamente a forma como vivemos, aprendemos e trabalhamos. Mas, como toda tecnologia, ela não é neutra. O que define seu impacto é o modo como escolhemos usá-la. Se queremos que a IA seja uma aliada do progresso humano, precisamos integrá-la com ética, clareza e responsabilidade.No fim, nossa maior defesa contra a manipulação não será um código, uma lei ou uma plataforma, será nossa capacidade de pensar antes de acreditar. E você? Está preparado para encarar essa nova era com ceticismo crítico?O post Avanço da IA depende da nossa capacidade de enfrentar a crise da verdade apareceu primeiro em Olhar Digital.