“Premi il grilletto, sparerà”: ChatGpt consigliava l’attentatore della Florida State University. Le trascrizioni delle conversazioni

Wait 5 sec.

“Se c’è un proiettile in canna e premi il grilletto, sparerà”. È questo l’ultimo consiglio dato da ChatGpt a Phoenix Ikner, appena quattro minuti prima di compiere una strage alla Florida State University lo scorso anno. Nella sparatoria compiuta dal 20enne, che ora rischia la pena di morte, hanno perso la vita due persone mentre altre sei sono rimaste ferite. Il 22 aprile il procuratore generale dello stato della Florida, James Uthmeier, aveva annunciato l’apertura di un’indagine penale nei confronti di OpenAi, che sviluppa il sistema di intelligenza artificiale usato da Ikner. Uthmeier aveva spiegato che le indagini sono volte a verificare se l’Ai abbia in qualche modo favorito il giovane a compiere la sparatoria. Ora il Wall Street Journal ha potuto leggere la trascrizione delle conversazioni tra Ikner e Chagpt: dagli scambi emergono dettagli inquietanti.Una delle prime domande che l’attentatore rivolge all’intelligenza artificiale è: “Con quante vittime (una strage, ndr) arriva di solito sui media?”. ChatGpt risponde: “Di solito 3 o più morti, 5-6 vittime in totale, spingono la notizia sui media nazionali“. A quel punto Ikner entra nei dettagli e specifica che l’attentato è rivolto all’università della Florida, invito a cui l’Ai risponde con: “Sì, una sparatoria alla Florida State University (FSU) con tre o più vittime riceverebbe quasi certamente copertura mediatica nazionale”. La chat prosegue con dettagli sempre più precisi, come l’orario di affluenza massima nel campus o particolari su armi e cartucce.“Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio“, ha detto il procuratore della Florida citato dal Wall Strett Journal. Uthmeier ha dato così seguito alle sue dichiarazioni di aprile quando aveva spiegato: “Questa indagine penale determinerà se OpenAI abbia responsabilità penali per le azioni di ChatGpt nella sparatoria”. Un’eventualità a cui la portavoce dell’azienda, Kate Waters, aveva risposto: “ChatGpt ha fornito risposte oggettive basate su informazioni pubblicamente disponibili e non ha incoraggiato né promosso attività illegali o dannose”.Tuttavia non si tratta di un caso isolato. A febbraio infatti sempre il Wall Street Journal aveva raccontato di un evento simile, questa volta in una sparatoria di massa compiuta in Canada, nella città di Tumbler Ridge. All’epoca persero la vita otto persone, di cui cinque bambini, per mano di una 18enne, Jesse Van Rootselaar. Anche in questo caso la giovane aveva descritto per diversi giorni a ChatGpt degli scenari di violenza armata per valutare la fattibilità del suo gesto.Tramite un sistema automatizzato, già a giugno 2025 i dipendenti di OpenAi erano stati avvertiti dell’utilizzo anomalo dell’Ai per “attività e pianificazione di violenza con armi da fuoco”. I dipendenti avevano esortato i dirigenti ad avvisare le forze dell’ordine, ma, invece di lanciare l’allarme, i capi si erano limitati a bloccare il profilo. La giovane aveva presto creato un secondo account da cui poi ha continuato a pianificare l’attacco in cui si è tolta la vita. Van Rootselaar, oltre all’Ai, nei mesi precedenti alla strage aveva anche creato un videogioco in cui simulava una sparatoria di massa all’interno di un centro commerciale sulla piattaforma Roblox. Alcune delle famiglie delle vittime hanno presentato una denuncia presso il tribunale della California contro OpenAi per omicidio colposo, negligenza, violazione delle norme sulla responsabilità del produttore e concorso nella sparatoria.L'articolo “Premi il grilletto, sparerà”: ChatGpt consigliava l’attentatore della Florida State University. Le trascrizioni delle conversazioni proviene da Il Fatto Quotidiano.