A ideia de uma imagem como evidência de um fato está chegando ao fim. Ferramentas de inteligência artificial como Veo 3 (Google), Sora (OpenAI) e Runway estão deixando de ser apenas geradores de vídeo. Elas estão desfazendo a fronteira entre real e o artificial. A partir de agora, realidade virou design.Por muito tempo, a gente confiou na imagem como testemunha. Era o “vi com meus próprios olhos” do jornalismo. De um jeito que hoje parece quase inocente, há alguns anos, Photoshop matou a foto como prova. E agora a IA está matando o vídeo como verdade.E tudo isso com uma eficiência assustadora que muda muita coisa para o jornalismo e plataformas de conteúdo.O impacto da IA no jornalismo e na apuração de fatosComo denunciar abusos se uma cena de violência pode ser fabricada com perfeição? Como registrar a história se o presente pode estar sendo inventado com qualidade de Hollywood?Não é um debate futurista. Já está acontecendo.Redações vão precisar de um novo tipo de profissional que saiba identificar artefatos digitais, checar procedência visual, interpretar imagens sintéticas.Ao mesmo tempo, a própria imprensa será tentada a usar essas tecnologias. Vai ser aceitável gerar simulações com IA para ilustrar crimes ou guerras? Se sim, como deixar claro que aquilo é uma reconstituição e não um registro? É um dilema urgente.A confiança vai passar a ser habilidade crítica. Um novo tipo de educação vai ser essencial: aprender a ler imagens como linguagem.C2PA na tentativa de garantir autenticidadeO padrão C2PA (sigla para Coalition for Content Provenance and Authenticity) é uma iniciativa criada por grandes empresas de tecnologia e mídia para combater a desinformação visual. A ideia é que imagens e vídeos venham com um tipo de “histórico de origem” embutido: quem criou, quando foi feito, se passou por edições. Como um RG digital.Isso facilita para plataformas e usuários saberem se aquele conteúdo é autêntico ou manipulado.Plataformas digitais: vitrine neutra ou curadoras de verdade?Uma outra saída pode ser obrigar plataformas a sinalizar conteúdo gerado por IA. Mas isso depende de regulação e vontade política. Coisa que quem lucra com desinformação sabe explorar.TikTok, Instagram, YouTube… são apenas vitrines onde qualquer um pode expor o que quiser? Ou essas plataformas têm obrigação de cuidar do que estão entregando para bilhões de pessoas todos os dias?Durante anos, essas redes se posicionaram como canais neutros, apenas conectando quem publica com quem consome. Mas quando o conteúdo distribuído pode ser uma mentira realista gerada por IA, a responsabilidade muda de patamar.Se elas têm algoritmos para escolher o que vai aparecer primeiro no seu feed, por que não teriam também a obrigação de filtrar o que pode causar dano real?Não se trata só de moderação de conteúdo. Trata-se de responsabilidade editorial. E talvez esteja na hora de plataformas serem cobradas como tal.The post Com IAs de vídeo, realidade vira design e gera desafio ético para jornalismo e plataformas appeared first on InfoMoney.