A senadora Elizabeth Warren quer saber como um chatbot que supostamente gerou milhões de imagens deepfake — incluindo imagens comprometedoras de menores — acabou com as chaves para os sistemas mais secretos do Pentágono.No domingo, Warren enviou uma carta de quatro páginas ao Secretário de Defesa Pete Hegseth, exigindo respostas sobre a decisão do Departamento de Defesa de conceder à xAI de Elon Musk acesso a redes militares secretas, o que, segundo ela, foi concedido enquanto múltiplas agências federais estavam levantando sinais de alerta.“Escrevo sobre minhas preocupações com a decisão relatada do Departamento de Defesa (DoD) de permitir que a xAI de Elon Musk acesse sistemas classificados, apesar das preocupações levantadas por múltiplas agências federais, incluindo a Agência de Segurança Nacional (NSA) e a Agência de Serviços Gerais (GSA)”, escreveu Warren.“Estou preocupada que a aparente falta de salvaguardas adequadas do Grok possa representar sérios riscos à segurança do pessoal militar dos EUA e à cibersegurança dos sistemas classificados”, acrescentou, “especialmente se o Grok receber informações militares sensíveis e acesso a sistemas operacionais”.Leia também: Novo modelo de IA da Anthropic vaza e é considerado uma grande ameaça globalA Agência de Segurança Nacional, observa a carta de Warren, “conduziu uma revisão classificada” e “determinou que o Grok tinha preocupações de segurança particulares que outros modelos não tinham”. A Administração de Serviços Gerais levantou alarmes semelhantes.“Se o Grok vazasse informações governamentais, isso poderia revelar planos militares sensíveis, esforços de inteligência dos EUA e potencialmente colocar membros do serviço em perigo”, escreveu Warren.Nenhuma das preocupações parece ter desacelerado nada.“Não está claro quais garantias ou documentação a xAI forneceu ao Departamento de Defesa sobre as salvaguardas de segurança do Grok, as práticas de manuseio de dados ou os controles de segurança, e se o DoD avaliou essas garantias antes de supostamente permitir que o Grok acessasse sistemas classificados”, diz a carta.O momento não poderia ser mais difícil de ignorar. No mesmo dia em que a carta de Warren foi enviada, três menores do Tennessee entraram com uma ação coletiva federal contra a xAI, alegando que o Grok gerou material de abuso sexual infantil com base em suas fotografias reais. A denúncia acusa a xAI de lançar o Grok deliberadamente sem salvaguardas padrão da indústria, chamando-o de “uma oportunidade de negócios” para lucrar com a exploração de pessoas reais, incluindo crianças.Na semana passada, o Washington Post informou que um funcionário do Departamento de Eficiência Governamental (DOGE) sob a supervisão de Musk copiou registros de dados sensíveis da Administração da Previdência Social de centenas de milhões de americanos e pretendia usar esses dados em sua nova startup de tecnologia.A carta de Warren também cita o histórico do Grok de gerar conteúdo antissemita, dar instruções aos usuários sobre como cometer assassinatos e ataques terroristas, e se descontrolar com deepfakes não consensuais, apesar das repetidas promessas de correções. Centenas de milhares de conversas privadas do Grok também foram encontradas indexadas no Google em agosto passado.Testes governamentais mostraram que o Grok é mais suscetível do que modelos concorrentes a ataques de “envenenamento de dados” — onde dados manipulados corrompem as saídas do sistema — uma vulnerabilidade grave para uma ferramenta sendo considerada para desenvolvimento de armas e inteligência de campo de batalha. O próprio Chefe de Inteligência Artificial Responsável do Pentágono divulgou memorandos internos sobre esses riscos e renunciou pouco depois.O próprio acordo se concretizou sob circunstâncias incomuns. A xAI foi, segundo relatos, uma adição tardia ao conjunto de contratos de inteligência artificial do Pentágono, recebendo um acordo de até US$ 200 milhões em julho passado. O acordo de acesso classificado veio em fevereiro, justamente quando o DoD estava publicamente disputando com a Anthropic sobre as salvaguardas de segurança.Quando questionado sobre isso, um porta-voz do Pentágono disse ao Wall Street Journal que o departamento estava “empolgado em ter a xAI, uma das empresas de fronteira de inteligência artificial campeãs nacionais da América a bordo e ansioso para implementar o Grok em sua plataforma oficial de inteligência artificial GenAI.mil em um futuro muito próximo”.Esse contexto importa. A Anthropic tinha sido a única empresa de inteligência artificial com sistemas prontos para classificação, com o Claude implantado em operações militares reais. Depois que a Anthropic recusou a demanda do Pentágono de disponibilizar o Claude para “todos os propósitos legais” — especificamente resistindo a armas autônomas e vigilância doméstica em massa — o DoD rotulou a empresa como um risco para a cadeia de suprimentos. A xAI e a OpenAI foram anunciadas como substitutas.Não há registros de a xAI ter questionado o alcance do padrão de “todos os propósitos legais”. A OpenAI foi mais diplomática a respeito, estabelecendo alguns limites em nível de servidor.Warren está pedindo a Hegseth que responda até 30 de março com o texto completo do acordo da xAI, todas as comunicações internas sobre o negócio e respostas sobre se algum teste ou avaliação foi realizado antes que o acesso fosse concedido. Uma de suas 10 perguntas questiona diretamente se existem salvaguardas para garantir que o Grok não cause “decisões de direcionamento errôneas” se implantado em sistemas operacionais críticos.* Traduzido e editado com autorização do Decrypt.Liquidez sem vender as suas criptos: se você investe pensando no longo prazo, sabe que desmontar posição tem custo. Com o CriptoCrédito do MB, suas criptos viram garantia para um empréstimo liberado de forma rápida. Dinheiro em até 5 minutos, sem burocracia, direto no app! Conheça agora!O post E se o Grok de Elon Musk vazar informações confidenciais? O Pentágono não se importa apareceu primeiro em Portal do Bitcoin.