IA de proteção digital Claude Security entra em fase beta para empresas

Wait 5 sec.

A empresa de inteligência artificial (IA) Anthropic confirmou o lançamento de um novo recurso em fase experimental. A partir desta quinta-feira (30), o Claude Security já pode ser usado por uma parcela dos clientes corporativos da plataforma.A ferramenta é um chatbot de IA generativa especializado que é capaz de revisar repositórios inteiros para avaliar códigos de uma companhia e encontrar eventuais vulnerabilidades de segurança.O Claude Security estava em fase de "prévia de pesquisa" desde fevereiro de 2026 com centenas de organizações parceiras. Agora, ele entra em beta público para todos os clientes interessados que fazem parte do pacote Claude Enterprise — integrantes das modalidades Team e Max devem ser os próximos a ganhar acesso.A ferramenta utiliza o recém-lançado Opus 4.7 como modelo de linguagem e não exige integrações com APIs ou a configuração de um agente de IA, o que torna o processo bem mais simples do que outros serviços de proposta similar.Apesar da área similar, o Claude Security é um serviço diferente de outra criação da Anthropic que ficou popular nas últimas semanas: o Mythos, um modelo de linguagem supostamente "perigoso para a humanidade" por ser capaz de achar falhas de segurança em navegadores e sistemas operacionais inteiros.Como o Claude Security acha falhas no códigoO Claude Security pode ser usado dentro do próprio chatbot convencional: o recurso especializado fica localizado na aba da esquerda, ao lado de itens como o Code e o histórico de conversas;Antes de pedir que a ferramenta inicie o escaneamento, ele pede que você aponte quais são os seus repositórios de código no GitHub. É a partir dessa fonte que ele buscará inconsistências e brechas;Recursos adicionados nas últimas atualizações incluem varreduras agendadas, um direcionamento em nível de diretório e a possibilidade de exportar resultados em CSV;As análises são exibidas em forma de lista de pendências, cada uma com o próprio trecho do código que levantou suspeitas e uma explicação sobre o porquê de ele ser um risco potencial;Antes de entregar os resultados, o serviço ainda valida cada descoberta individualmente, como em uma espécie de prova real para reduzir falsos positivos.Apesar de toda a automação dos processos, cabe ao usuário ignorar a sugestão ou pedir que o próprio Claude Security sugira uma correção no código, que idealmente também deve ser revisada por um usuário humano antes da implementação.Como um agente de IA da Anthropic apagou todos os dados de uma empresa em poucos segundos? Conheça a história nesta matéria.