Claude Mythos, il modello AI giudicato troppo rischioso, è finito in mani non autorizzate

Wait 5 sec.

Anthropic aveva detto chiaramente che Claude Mythos era troppo pericoloso per essere rilasciato al pubblico: un modello capace di identificare e sfruttare vulnerabilità in ogni sistema operativo e ogni browser principale, su comando dell'utente. Accesso limitato a pochissime aziende selezionate, nessuna disponibilità generale. Eppure, come riporta Bloomberg, un gruppo di utenti non autorizzati ci ha messo le mani sopra da settimane.La storia è tanto preoccupante quanto istruttiva su quanto sia fragile la sicurezza perimetrale anche per le aziende AI più attente. E Anthropic è considerata una delle più serie sul fronte della sicurezza.Stando alla ricostruzione, l'accesso è avvenuto il 7 aprile, lo stesso giorno in cui Anthropic annunciava il rilascio limitato di Mythos attraverso il Project Glasswing, l'iniziativa che coinvolge partner come Nvidia, Google, Amazon Web Services, Apple e Microsoft. Un tempismo che non sembra casuale.Il gruppo, che si coordina su un canale Discord dedicato alla caccia di modelli AI non ancora rilasciati, ha combinato due elementi: l'accesso di un contractor di terze parti di Anthropic e informazioni ottenute da una violazione dei dati di Mercor, una piattaforma di recruiting tech. Quei dati hanno permesso di fare un'ipotesi ragionata sulla posizione online del modello, e l'ipotesi era giusta.Il risultato: i membri del gruppo usano Mythos regolarmente da due settimane, dimostrando l'accesso a Bloomberg con screenshot e una dimostrazione dal vivo. Evitano però di usarlo per scopi di cybersecurity, presumibilmente per non attivare sistemi di rilevamento anomalie.Anthropic ha confermato di stare indagando sull'incidente e sostiene di non avere evidenze che l'accesso non autorizzato abbia impattato i propri sistemi interni, limitandosi all'ambiente del vendor di terze parti. Il gruppo avrebbe anche avuto accesso ad altri modelli non ancora rilasciati di Anthropic, secondo Bloomberg. Speriamo solo che non siano davvero finiti nelle proverbiali "mani sbagliate".La vicenda solleva una questione che va oltre Anthropic: se un modello AI giudicato troppo rischioso per il pubblico viene comunque distribuito, anche a un numero ristretto di partner, la superficie di attacco si allarga inevitabilmente. Il punto debole non era il modello in sé, ma la catena di accesso umana attorno a esso, che è sempre la parte più difficile da blindare. Mythos era già noto per le sue capacità offensive, ma questa storia ricorda che il problema della sicurezza AI (e non solo) non è solo tecnico.L'articolo Claude Mythos, il modello AI giudicato troppo rischioso, è finito in mani non autorizzate sembra essere il primo su Smartworld.