Os vídeos falsos de Taylor Swift dando panelas de graça ou de distribuição de dinheiro pelo governo dos Estados Unidos podem estar com os dias contados. Pesquisadores australianos estão desenvolvendo uma nova ferramenta de inteligência artificial (IA) capaz de enganar outras IAs e, com isso, dificultar a criação de deepfakes e conteúdos criminosos.Batizada de Silverer, a tecnologia usa uma técnica chamada “envenenamento de dados”, que modifica sutilmente imagens e vídeos antes de eles serem publicados. Assim, se alguém tentar reutilizar esse material para gerar conteúdo falso, os algoritmos acabam produzindo versões borradas, distorcidas ou irreconhecíveis.Essa ferramenta vem sendo criada por meio do Laboratório de IA para Segurança Pública e Comunitária (AiLECS), uma colaboração estratégica de pesquisa entre a Universidade Monash e a Polícia Federal Australiana.A ferramenta traz diversas aplicações, sendo a principal desacelerar ou evitar a produção de material de propaganda extremista, abuso infantil e imagens ou vídeos deepfake.Leia mais:Guerra fria da inteligência artificial intensifica disputa entre EUA e ChinaMicrosoft descobre falha em IA que pode expor temas de conversas criptografadasAnthropic se destaca no mercado de IA e promete lucro antes da OpenAIComo funciona a Silverer?Ilustração de uma inteligência artificial trabalhando para a segurança do usuário Imagem: Summit Art Creations/ShutterstockA ferramenta Silverer, que está em fase de protótipo, vem sendo desenvolvida há 12 meses sob a liderança da pesquisadora Elizabeth Perry. Por meio dela, é utilizada uma prática que realiza uma modificação sutil de dados, o que dificulta a utilização indevida de imagens ou vídeos, além da manipulação por meio de programas de IA para a produção de deepfakes.Acontece que as ferramentas de IA e aprendizado de máquina (ML) precisam de grandes quantidades de dados online para criar conteúdo. Então, se esses dados estiverem levemente modificados, os modelos de IA vão criar resultados imprecisos, corrompidos ou distorcidos. Outro ponto é que se tornará mais fácil identificar imagens ou vídeos manipulados por criminosos.Referência do nome da ferramentaDe acordo com Perry, em declaração à Universidade Monash, reproduzida pelo site TechXplore, o nome da ferramenta é uma referência à prata utilizada para fazer espelhos. Isso significa que o modelo de IA será utilizado para gerar reflexos de uma imagem original.Ilustração de uso de IA para segurança – Imagem: BOY ANTHONY/Shutterstock“Nesse caso, é como deslizar prata atrás do vidro, de modo que, quando alguém tenta olhar através dele, acaba com um reflexo completamente inútil”, explicou. Dessa forma, o modelo de IA pode ser utilizado para modificar imagens, antes que o usuário as publique na internet ou nas redes sociais. A ferramenta faz uma alteração nos pixels, o que engana os modelos de IA, fazendo com que eles gerem imagens com baixa qualidade, borradas ou irreconhecíveis.Importância do desenvolvimento desse modelo de IAO comandante da Polícia Federal Australiana, Rob Nelson, destacou, também ao TechXplore, que esse tipo de tecnologia ainda está na fase inicial de desenvolvimento e passando por testes. Porém, os resultados iniciais são promissores para a aplicação da lei. “Onde vemos aplicações significativas é no uso indevido da tecnologia de IA para fins maliciosos”, comentou.Ilustração de inteligência artificial para utilização das pessoas(Imagem: IM Imagery / Shutterstock)“Por exemplo, se um criminoso tentar gerar imagens baseadas em IA usando os dados adulterados, a imagem resultante será distorcida ou completamente diferente da original. Ao adulterar os dados, estamos, na verdade, protegendo-os de serem usados para gerar conteúdo malicioso”, completou.Outro ponto destacado pelo comandante é que a ferramenta possui capacidade para ajudar os investigadores, reduzindo a quantidade de conteúdos falsos que devem ser analisados. “Já existem diversos algoritmos de envenenamento de dados e, como vemos em outras áreas de segurança cibernética, novos métodos para evitá-los surgem rapidamente em seguida”.“Não acreditamos que um único método seja capaz de impedir o uso malicioso ou a recriação de dados; no entanto, o que estamos fazendo é semelhante a colocar lombadas em uma pista de corrida ilegal. Estamos criando obstáculos para dificultar o uso indevido dessas tecnologias”, afirmou.O post Austrália desenvolve IA para frear crimes digitais apareceu primeiro em Olhar Digital.