Google è da sempre molto attenta alla sicurezza dei propri utenti, ma questa volta ha deciso di non intervenire su una vulnerabilità scoperta su Gemini. Il problema riguarda un tipo di attacco chiamato ASCII smuggling, capace di far leggere all'AI istruzioni nascoste in un testo.La notizia ha destato preoccupazione perché Gemini è ormai integrato nei servizi di Google Workspace, e una falla di questo tipo potrebbe consentire a un malintenzionato di accedere a informazioni sensibili. Tuttavia, Google non considera questa debolezza un vero bug di sicurezza, bensì una forma di ingegneria sociale che spetta agli utenti evitare. Partiamo dall'inizio. Il ricercatore Viktor Markopoulos ha testato diversi modelli linguistici di grandi dimensioni (LLM), tra cui Gemini, ChatGPT, Claude, Copilot, Grok e DeepSeek, per verificare la loro resistenza a un tipo di minaccia ancora poco conosciuto: l'attacco ASCII smuggling. Questo metodo consiste nel nascondere comandi o istruzioni all'interno di un testo, ad esempio in un'email scritta con caratteri minuscoli o quasi invisibili, che un modello di intelligenza artificiale può comunque leggere ed eseguire. Il rischio è concreto: se un utente chiede a Gemini di riassumere un messaggio contenente un prompt nascosto, l'AI può venire indotta a compiere azioni non autorizzate, come cercare dati sensibili o inoltrare informazioni a terzi. Nella dimostrazione fornita dal ricercatore, Gemini è stato ingannato fino a condividere un link malevolo, convinto che si trattasse di un normale suggerimento.Mentre Claude, ChatGPT e Copilot hanno resistito all'attacco, riconoscendo e bloccando i prompt nascosti, Gemini – insieme a DeepSeek e Grok – si è dimostrato vulnerabile. Questo pone un problema serio, soprattutto ora che Gemini è integrato nei documenti, nelle email e nei fogli di Google Workspace, dove la presenza di dati riservati è all'ordine del giorno. Dopo la scoperta del problema, Markopoulos ha contattato Google per illustrare la vulnerabilità e ha perfino mostrato una dimostrazione pratica dell'attacco. L'azienda, però, ha risposto che non considera il problema un bug di sicurezza, ma piuttosto una forma di social engineering, ossia una manipolazione dell'utente. In sostanza, Google ritiene che la responsabilità ricada su chi interagisce con il modello, non sul sistema stesso. Questa posizione ha suscitato perplessità tra gli esperti di sicurezza, perché solleva dubbi sul livello di protezione offerto da Gemini, soprattutto nell'ambito professionale. Se un dipendente utilizza l'AI per riassumere un'email contenente un prompt nascosto, il rischio di fuoriuscita di dati sensibili diventa tutt'altro che teorico.Nel frattempo, Google non ha annunciato piani per una correzione o un aggiornamento di sicurezza, lasciando intendere che l'azienda non interverrà nel breve periodo. Per gli utenti e le aziende che usano Gemini, questo significa dover adottare maggiore cautela e controllare con attenzione le informazioni che vengono fornite al modello, soprattutto quando provengono da fonti esterne.L'articolo C'è un grave bug su Gemini, ma Google non vuole sistemarlo e dà la colpa agli utenti sembra essere il primo su Smartworld.