Depois de meses de briga, a Anthropic e o Departamento de Defesa dos Estados Unidos participaram de uma audiência realizada na terça-feira (24) em um tribunal federal da Califórnia. A disputa gira em torno da decisão dos EUA de proibir o uso do Claude por militares e empresas ligadas ao governo federal.O caso começou porque a Anthropic se recusou a permitir que o Pentágono use sua IA em aplicações consideradas perigosas, como vigilância em massa de cidadãos estadunidenses e armas autônomas. Em resposta, o Departamento de Defesa declarou a desenvolvedora como “risco à segurança nacional“, o que proíbe o uso governamental e de empresas ligadas ao governo. O Olhar Digital deu a linha do tempo do conflito aqui.Agora no tribunal, a Anthropic tenta obter uma liminar para suspender essa medida. A companhia contesta a decisão e afirma que a proibição pode causar prejuízos significativos, incluindo perdas financeiras na casa de centenas de milhões de dólares.A audiência foi conduzida pela juíza Rita Lin, que destacou a complexidade do caso ao classificá-lo como um debate relevante de políticas públicas. Durante a sessão, Lin demonstrou dúvidas sobre a legalidade das ações do governo, sugerindo que as medidas poderiam ter caráter punitivo.Em um dos momentos mais tensos, a magistrada questionou representantes do governo sobre declarações públicas do secretário de Defesa, Pete Hegseth, que havia afirmado que contratados militares não poderiam manter relações comerciais com a Anthropic. Os advogados do governo argumentaram que a publicação não tinha efeito legal – posição que a juíza considerou contraditória.Disputa vem em meio à proibição do Claude para empresas ligadas ao governo federal (Imagem: Mijansk786/Shutterstock)Anthropic defende retaliação por parte do governoSegundo o The Guardian, a Anthropic afirma que o governo violou direitos garantidos pela Primeira Emenda da Constituição dos EUA, ao adotar medidas que configuram retaliação por sua postura em relação ao uso da inteligência artificial.A companhia sustenta que seu modelo ainda não apresenta nível de segurança adequado para aplicações sensíveis, como monitoramento em massa ou armamentos autônomos. O CEO da empresa, Dario Amodei, já havia manifestado preocupação com o uso da tecnologia em cenários considerados autoritários.Do outro lado, autoridades americanas e o próprio presidente dos EUA, Donald Trump, criticaram a decisão da empresa, classificando sua postura como prejudicial aos interesses do país. Em publicação na rede social Truth Social, o republicano se referiu à Anthropic como “UMA EMPRESA RADICAL DE ESQUERDA, PROGRAMADA”.Leia mais:Como uma startup de IA enfrentou o governo mais poderoso do mundoPentágono explica por que vê Claude, IA da Anthropic, como riscoClaude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegueA disputa pode ter efeitos amplos tanto para a desenvolvedora quanto para o governo dos EUA. Nos últimos meses, a tecnologia Claude vinha sendo amplamente utilizada por agências federais, inclusive em operações militares, como análise e seleção de alvos. A eventual retirada dessas ferramentas exigiria um processo complexo e demorado de substituição, com possíveis impactos operacionais. Paralelamente, o Departamento de Defesa já firmou acordos com concorrentes como OpenAI e xAI, de Elon Musk, para uso de soluções de IA em ambientes sensíveis.O post Anthropic e Pentágono se enfrentam em tribunal após proibição do Claude apareceu primeiro em Olhar Digital.