Uma pesquisa da Escola de Engenharia Tandon da NYU, publicada no IEEE Security & Privacy, alerta que modelos de linguagem grandes (LLMs) podem ser usados para inserir vulnerabilidades maliciosas em projetos de hardware.Em uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW, equipes empregaram IA generativa para identificar pontos frágeis em designs abertos – incluindo processadores RISC-V e aceleradores criptográficos – e implantar “trojans” de hardware que vazam chaves, abrem backdoors ou travam sistemas sob condições específicas.Experimento revela como modelos de IA conseguem sabotar chips de computador – Imagem: H_Ko/ShutterstockIA facilita processo de ataque a chipsOs pesquisadores demonstraram que ferramentas de IA simplificam o processo, permitindo que tanto iniciantes quanto especialistas automatizem a análise de código, gerem e insiram modificações maliciosas com mínima supervisão humana.Equipes de graduação com pouca experiência conseguiram criar falhas de média a alta gravidade. Muitos participantes também descobriram formas de contornar salvaguardas dos LLMs, enquadrando prompts como exercícios acadêmicos ou pedindo respostas em idiomas menos comuns.Os envios mais eficazes usaram ferramentas totalmente automatizadas: elas localizavam trechos vulneráveis no design e inseriam trojans personalizados.Leia maisIAs podem ser melhores que nós no gerenciamento de desastresPesquisa revela que modelos de IA podem mentir deliberadamenteIA traz riscos, mas ajudará a combater crise climática, diz ONUVulnerabilidades criadas por modelos generativos não podem ser corrigidas após a fabricação do hardware – Imagem: Wright Studio/ShutterstockAutores do estudo alertam para gravidade do problemaOs autores enfatizam que a permanência dessas falhas é especialmente perigosa – ao contrário de um software, um chip fabricado com um backdoor não pode ser consertado sem trocar fisicamente o componente.O estudo conclui pedindo filtros e proteções mais robustos nos modelos, além de ferramentas avançadas de verificação e análise de segurança de hardware, e alerta que modelos open-source especializados podem tornar esses ataques ainda mais acessíveis, ampliando o risco no ecossistema de design de chips e defesa urgente.Pesquisadores provam que IA pode se tornar arma no design de hardware (Imagem: WANAN YOSSINGKUM/iStock)O post IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo apareceu primeiro em Olhar Digital.