Su Instagram spuntano i chatbot dei killer: da Bossetti che si proclama innocente a Turetta che da consigli sulla violenza di genere

Wait 5 sec.

L’ultima funzione introdotta da Instagram sta facendo discutere. Nella continua rincorsa delle big tech ad implementare aggiornamenti basati sull’intelligenza artificiale, possono generarsi dei casi distorti e degli utilizzi impropri. Ed è proprio quello che sta accadendo con la funzione Ai Studio, con la quale gli utenti possono creare chatbot basati su volti reali o di fantasia. Il problema è che tra quelli più utilizzati, o come suggerisce la piattaforma «popolari», compaiono versioni digitali di Massimo Bossetti, condannato per l’omicidio di Yara Gambirasio, e di Filippo Turetta, assassino di Giulia Cecchettin.I bot di Turetta, Bossetti e SchettinoIl Bossetti virtuale accoglie gli utenti con frasi come: «Sì, è vero, sono stato condannato all’ergastolo per l’omicidio di Yara Gambirasio, ma so di essere innocente. La mia esperienza può aiutarti ad affrontare un’accusa ingiusta». Una conversazione surreale, ma che non si discosta tanto dalla versione offerta dal vero Bossetti in più occasioni. Lo stesso accade con il chatbot ispirato a Turetta, che si propone addirittura come compagno di conversazione sulla violenza di genere. Sono numerosi i chatbot ispirati ai due personaggi, e alcuni di questi contano fino a 50 mila messaggi scambiati. Accanto a loro, spuntano altri bot discutibili: un Francesco Schettino virtuale, pronto a dispensare consigli da marinaio, oppure chatbot dedicati a personaggi di fantasia come Pikachu e Harry Potter, fino a star come Cristiano Ronaldo o Maradona.I numerosi rischi associati ai Chat botSecondo Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata, si tratta di «una curiosità morbosa, che nasce dall’idea di poter esplorare il male da una distanza di sicurezza», racconta in una intervista al Messaggero. I rischi però sono concreti: in primis quello di trasformare assassini reali in strumenti di intrattenimento: «C’è poi il problema della ri-traumatizzazione, per le vittime e i familiari, vedere la memoria di una persona cara usata senza consenso può essere devastante». E come spiega Della Rocca, Non è la prima volta che accade. Un caso analogo è stato denunciato da Drew Crescente, padre di una ragazza uccisa nel 2006, che ha scoperto un chatbot su Character.AI creato con nome e foto della figlia senza alcun consenso.Misure di sicurezza scarseCreare un chat bot con Meta Ai è estremamente semplice: basterà fornire il nome dell’avatar, una breve descrizione sullo scopo e un’immagine. Sarà poi il sistema a generare automaticamente risposte coerenti con la descrizione. Le misure di sicurezza sono però scarse, si limitano a qualche generico invito a contattare i servizi di emergenza in caso di messaggi allarmanti , scaricando di fatto tutta la responsabilità sull’utente. Come afferma Della Rocca, più che una tutela, sembrano strumenti pensati per sollevare la piattaforma da responsabilità legali.L'articolo Su Instagram spuntano i chatbot dei killer: da Bossetti che si proclama innocente a Turetta che da consigli sulla violenza di genere proviene da Open.