Mythos: Anthropic investiga acesso hacker a IA ‘perigosa demais’

Wait 5 sec.

A Anthropic iniciou uma investigação interna para apurar um acesso não autorizado ao Claude Mythos, ferramenta de cibersegurança considerada “perigosa demais” para ser liberada ao público, segundo a Bloomberg. O modelo, projetado para identificar falhas em sistemas operacionais e navegadores, teria sido invadido por hackers por meio de um portal de fornecedores externos. A empresa informou que, até o momento, não há evidências de que seus sistemas centrais tenham sido comprometidos.O incidente ocorre poucas semanas após o anúncio do Projeto Glasswing, iniciativa que limita o uso do Mythos a um grupo seleto de parceiros de confiança, como Amazon, Apple, Microsoft e Cisco.O que se sabe sobre a invasão ao Mythos da AnthropicAs investigações apontam que um grupo de usuários não autorizados, que se organiza por meio de um canal privado no Discord, conseguiu acessar o Mythos explorando vulnerabilidades num ambiente de fornecedores terceirizados. Usando ferramentas de busca digital e “palpites educados” sobre a localização dos servidores, os invasores conseguiram utilizar o modelo. Segundo fontes próximas ao caso, o grupo estaria interessado apenas em testar as capacidades da IA, sem intenções maliciosas imediatas.A capacidade do Claude Mythos justifica o interesse: em testes recentes, a Mozilla afirmou que a ferramenta ajudou a identificar e corrigir 271 vulnerabilidades no navegador Firefox. Tamanho poder de fogo atraiu a atenção de grandes instituições financeiras, como JP Morgan Chase, Goldman Sachs e Bank of America, além de agências governamentais que buscam a tecnologia para proteger suas infraestruturas contra ataques cibernéticos.Apesar do sucesso técnico, a falha de segurança ocorre num momento delicado para a reputação da Anthropic. A empresa foi recentemente classificada como um “risco à cadeia de suprimentos” pelo Departamento de Defesa dos EUA, rótulo que a companhia tenta remover em negociações com o governo (o Olhar Digital te conta e explica toda essa novela).Sam Altman critica ‘marketing do medo’ e exclusividade da AnthropicO incidente serviu de munição para o CEO da OpenAI, Sam Altman, que criticou a estratégia da Anthropic. Durante uma participação no podcast Core Memory, Altman sugeriu que a empresa usa um “marketing baseado no medo” para inflar a importância de seus produtos. Segundo ele, alegar que uma IA é “poderosa demais para o público” é uma tática para manter a tecnologia restrita a uma pequena elite corporativa e governamental.“É marketing dizer: ‘Construímos uma bomba e estamos prestes a jogá-la na sua cabeça, mas podemos te vender um abrigo antiaéreo por US$ 100 milhões‘”, disse o CEO da OpenAI.Para o executivo da OpenAI, essa retórica de perigo iminente serve mais para atrair contratos vultosos do que para proteger a sociedade de riscos reais.Por outro lado, críticos observam que a estratégia de usar hipérboles e alertas sobre o “fim do mundo” não é exclusividade da Anthropic; é uma tática comum na indústria de IA, inclusive por parte do próprio Altman.(Essa matéria também usou informações de TechCrunch.)O post Mythos: Anthropic investiga acesso hacker a IA ‘perigosa demais’ apareceu primeiro em Olhar Digital.