A Anthropic está em diálogo com o governo dos Estados Unidos sobre o Mythos, nova inteligência artificial de ponta da empresa. Mesmo após o fim de um acordo contratual relacionado ao uso da tecnologia, a desenvolvedora afirma estar comprometida com a preservação da segurança nacional.“Temos uma disputa contratual específica, mas não quero que isso interfira no fato de nos preocuparmos profundamente com a segurança nacional”, afirmou o cofundador da Anthropic, Jack Clark, durante o evento Semafor World Economy, realizado em Washington. “Nossa posição é que o governo precisa saber sobre essas coisas. Então, com certeza, estamos conversando com eles sobre o Mythos e também conversaremos sobre os próximos modelos”, completou.Leia mais: Site falso do Claude distribui vírus que permite invasão remota a PCsO conteúdo das conversas não foi divulgado, assim como as agências envolvidas nas discussões.A Anthropic discute com o governo dos EUA sobre o Claude Mythos. (Fonte: Robert Way/Getty Images)Revelado em 7 de abril, o modelo Claude Mythos é considerado pela própria Anthropic como potencialmente perigoso para a sociedade. A empresa também enfrentou críticas por avançar demais no desenvolvimento de uma IA desse nível.Em março, a Anthropic se recusou a flexibilizar os termos de um acordo com o Departamento de Guerra dos Estados Unidos. Em resposta, o governo classificou a startup como um “risco à cadeia de suprimentos”, proibindo o uso de suas soluções em agências estatais.Confira: Anthropic confirma vazamento do código-fonte do Claude CodeFique ligado no TecMundo para acompanhar os bastidores da inteligência artificial, disputas entre empresas e governos e os impactos dessas tecnologias no futuro. Siga também nossas redes sociais para não perder nenhuma novidade.