No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes. Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.Inteligência artificial em campoA ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.O cabo de guerraO estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.Um divórcio complexoEmbora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.A resistência do Vale do SilícioO caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.O post Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic apareceu primeiro em Olhar Digital.