Anthropic: tribunal nega pedido para suspender decisão do Pentágono

Wait 5 sec.

Um tribunal federal de apelações em Washington, D.C. (EUA), negou, nesta quarta-feira (8), o pedido da empresa de inteligência artificial (IA) Anthropic para suspender temporariamente sua inclusão em uma lista de restrições do Departamento de Defesa dos Estados Unidos.A startup buscava uma decisão que interrompesse os efeitos da classificação imposta pelo Pentágono, alegando riscos financeiros e danos à reputação enquanto o processo judicial segue em andamento. A decisão ocorre após um juiz federal em São Francisco (EUA) ter concedido, no fim do mês passado, uma liminar em um caso separado, impedindo o governo de Donald Trump de aplicar uma proibição ao uso do sistema Claude.O Departamento de Defesa classificou a Anthropic como um risco à cadeia de suprimentos no início de março, afirmando que o uso da tecnologia da empresa poderia representar uma ameaça à segurança nacional dos Estados Unidos. Com essa designação, contratados do setor de defesa precisam certificar que não utilizam os modelos de IA Claude em atividades relacionadas ao governo.O que diz o tribunal na decisãoNa decisão, o tribunal afirmou que o equilíbrio de interesses favorece o governo. “Em nossa visão, o equilíbrio equitativo aqui pende a favor do governo”, diz o documento;“De um lado, há um risco relativamente limitado de prejuízo financeiro para uma única empresa privada. Do outro, está a gestão judicial de como, e por meio de quem, o Departamento de Guerra assegura tecnologia vital de IA durante um conflito militar ativo”;A Anthropic argumentou que a decisão do Pentágono representa uma forma de retaliação inconstitucional, além de ser arbitrária e incompatível com os procedimentos legais exigidos. A empresa também pediu que o tribunal revisasse a classificação;Apesar disso, o tribunal reconheceu que a empresa “provavelmente sofrerá algum grau de dano irreparável na ausência de uma suspensão”, mas avaliou que os interesses da Anthropic são “principalmente de natureza financeira”;Sobre a alegação de violação da liberdade de expressão, a corte afirmou que a empresa não demonstrou que sua fala tenha sido restringida durante o andamento do processo.A decisão do Departamento de Defesa se baseou em duas designações legais distintas, que precisam ser contestadas em tribunais diferentes. Uma delas, prevista na legislação federal 41 U.S.C. § 4713, está sob a jurisdição do tribunal de apelações em Washington.O processo judicial teve início após semanas de tensão entre a empresa e o governo dos Estados Unidos. Em fevereiro, o secretário de Defesa, Pete Hegseth, declarou publicamente que a Anthropic representava um risco à cadeia de suprimentos. Posteriormente, o Pentágono formalizou a decisão por meio de uma notificação oficial à empresa.Leia mais:Claude.AI: como usar inteligência artificialClaude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegueAnthropic lança novo modelo de IA para fortalecer cibersegurançaCom decisão, startup volta a ser ameaça à segurança nacional sob os olhos do governo Trump – Koshiro K/ShutterstockA Anthropic tornou-se a primeira empresa estadunidense a receber esse tipo de classificação, que historicamente era aplicada a adversários estrangeiros.Pouco antes do anúncio, o presidente Trump publicou em sua rede, a Truth Social, uma ordem para que agências federais interrompessem imediatamente o uso da tecnologia da empresa, com um prazo de seis meses para a retirada completa.A medida surpreendeu autoridades em Washington, já que a tecnologia da Anthropic havia sido amplamente adotada por diversas agências governamentais. A empresa foi a primeira a implementar seus modelos em redes classificadas do Departamento de Defesa e era reconhecida pela capacidade de integração com contratadas, como a Palantir.Em julho, a Anthropic firmou um contrato de US$ 200 milhões (R$ 1 bilhão) com o Pentágono. No entanto, as negociações para expandir o uso do sistema Claude na plataforma GenAI.mil, iniciadas em setembro, não avançaram.O impasse ocorreu porque o Departamento de Defesa exigia acesso irrestrito aos modelos para todos os usos legais, enquanto a Anthropic buscava garantias de que sua tecnologia não seria empregada em armas totalmente autônomas ou em sistemas de vigilância em massa no território doméstico. Sem acordo, a disputa acabou sendo levada à Justiça.Anthropic vs Pentágono: linha do tempo11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.24 de março de 2026: Anthropic e governo foram aos tribunais pela primeira vez. Houve uma audiência em um tribunal federal da Califórnia, que deliberou sobre a validade da medida tomada pelo Pentágono.26 de março de 2026: a juíza distrital Rita Lin barrou a decisão do Pentágono, dizendo que “nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser vista como adversária por simplesmente discordar do governo” e que a medida poderia “paralisar a Anthropic”.2 de abril de 2026: o governo dos EUA reagiu à decisão da juíza e apelou contra sua decisão, visando manter a determinação contra a Anthropic.8 de abril de 2026: um tribunal de apelações em Washington D.C. negou a tentativa de reversão da decisão movida pelo Pentágono contra a Anthropic, mantendo a empresa como um risco à cadeia de suprimentos nacional.O post Anthropic: tribunal nega pedido para suspender decisão do Pentágono apareceu primeiro em Olhar Digital.