Microsoft descobre falha em IA que pode expor temas de conversas criptografadas

Wait 5 sec.

A Microsoft revelou uma vulnerabilidade que pode comprometer a privacidade das conversas com assistentes de inteligência artificial, como ChatGPT e Google Gemini. A falha, batizada de “Whisper Leak”, foi descoberta em uma série de testes com modelos de linguagem de grande escala (LLMs) e pode permitir que terceiros identifiquem o tema das conversas, mesmo sem acesso direto ao conteúdo. De acordo com a Microsoft, o problema afeta quase todos os modelos analisados, levantando preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas em todo o mundo.Falha não quebra criptografia, mas revela metadadosOs pesquisadores explicam que as conversas com chatbots são protegidas por TLS (Transport Layer Security) — o mesmo protocolo de segurança usado em transações bancárias online. Embora o TLS impeça que invasores leiam o texto das mensagens, ele não esconde completamente os metadados, ou seja, informações sobre o tráfego de dados, como o tamanho e o tempo entre os pacotes transmitidos.Microsoft levanta preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas (Imagem: Owlie Productions/Shutterstock)Esses detalhes, aparentemente inofensivos, podem ser explorados para deduzir o tema da conversa. A Microsoft testou 28 modelos de IA, criando duas categorias de perguntas: uma sobre um assunto sensível (como lavagem de dinheiro) e outra composta por consultas aleatórias. O estudo mostrou que um sistema de IA treinado apenas com esses padrões de tráfego foi capaz de identificar corretamente o tema das conversas com mais de 98% de precisão.Em alguns casos, a detecção de tópicos sensíveis chegou a 100% de acerto, mesmo quando representavam apenas 1 em cada 10 mil conversas.Desafio para a segurança da inteligência artificialOs pesquisadores tentaram aplicar três diferentes métodos de defesa contra o ataque, mas nenhum conseguiu bloquear totalmente o vazamento. Segundo a equipe, o problema não está na criptografia em si, mas na forma como os dados são transmitidos. “Esta não é uma vulnerabilidade criptográfica no TLS, mas uma exploração dos metadados que o protocolo inevitavelmente revela”, explicaram no artigo.Leia mais:Microsoft investe US$ 10 bilhões em data centers de IA em PortugalMicrosoft admite perdas bilionárias e detalha investimento na OpenAIBug no Windows 10 exibe aviso falso de fim de suporte; veja o que fazerSegundo a Microsoft, é essencial que o setor adote medidas urgentes para impedir que as próximas gerações de modelos de IA sejam comprometidas (Imagem: Framalicious / Shutterstock)A Microsoft alertou que o setor precisa agir rapidamente para evitar que futuras gerações de modelos de IA sejam afetadas. O relatório destaca a urgência de desenvolver novas soluções de segurança para proteger informações sensíveis e evitar que metadados exponham padrões de comportamento dos usuários.Entre os principais pontos do estudo estão:A falha “Whisper Leak” afeta a maioria dos modelos de IA testadosMetadados permitem identificar o tema das conversas, mesmo com criptografia ativaO método de detecção teve precisão superior a 98%Nenhuma das soluções testadas eliminou totalmente o vazamentoA Microsoft pede reforço nas medidas de segurança em sistemas de IAOs resultados reforçam a importância de uma abordagem mais robusta na proteção de dados em ambientes de IA, especialmente à medida que essas tecnologias passam a lidar com informações cada vez mais sensíveis e pessoais.Essa reportagem usou informações do TechXplore e da Microsoft.O post Microsoft descobre falha em IA que pode expor temas de conversas criptografadas apareceu primeiro em Olhar Digital.