Cos’è la bixonimania, la malattia immaginaria che ha ingannato IA e umani. Gli esperti mettono in guardia: “L’esperimento ha funzionato fin troppo bene, attenzione, non è un caso isolato”

Wait 5 sec.

Occhi irritati? Prurito? Passate troppo tempo davanti agli schermi di computer e device? Potreste essere affetti da bixonimania, una rara malattia degli occhi…..o forse no. Già perché la bixonimania non esiste, è stata inventata di sana pianta, anche se all’amo hanno abboccato non solo molte persone del tutto in buona fede ma anche l’Intelligenza Artificiale. La “malattia” è stata creata dalla ricercatrice medica Almira Osmanovic Thunström dell’Università di Göteborg e dai suoi collegi nell’ambito di un esperimento volto a verificare se i sistemi di intelligenza artificiale avrebbero ripetuto informazioni mediche false. Per mettere alla prova la loro ipotesi, i ricercatori hanno deciso di caricare, all’inizio del 2024, due studi completamente falsi su un server di preprint, simulando vere pubblicazioni scientifiche. Osmanovic Thunström ha ideato e condotto questo esperimento piuttosto insolito con l’obiettivo di verificare se i modelli linguistici su larga scala (LLM) fossero in grado di assorbire informazioni scorrette e successivamente riproporle come se fossero consigli medici affidabili e fondati. Il risultato, però, è stato sorprendente e allo stesso tempo inquietante, poiché l’esperimento ha funzionato fin troppo bene, superando le aspettative iniziali degli stessi ricercatori. Nel giro di poche settimane dalla diffusione di queste informazioni, attribuite a un autore del tutto fittizio, i principali sistemi di intelligenza artificiale hanno iniziato a riprendere la condizione inventata trattandola come se fosse reale e scientificamente riconosciuta. Ancora più preoccupante, come sottolineato da altri studiosi, è il fatto che questi articoli falsi siano stati successivamente citati anche in pubblicazioni sottoposte a revisione paritaria, aumentando così la loro apparente credibilità. Osmanovic Thunström ha evidenziato che questo comportamento suggerisce come alcuni ricercatori possano affidarsi a riferimenti generati dall’intelligenza artificiale senza verificare direttamente le fonti originali. Infatti, gli articoli in questione contenevano diversi segnali evidenti della loro natura fittizia, tra cui la presenza di un autore inventato, il riferimento a un’università inesistente e persino citazioni di istituzioni immaginarie, come l’Accademia della Flotta Stellare. Nonostante questi chiari indizi, i chatbot basati su modelli linguistici avanzati hanno rapidamente iniziato a ripetere tali informazioni senza metterle in discussione.Secondo gli esperti del settore, i sistemi di intelligenza artificiale possono fornire risposte molto diverse a seconda di come vengono formulate le domande e delle fonti disponibili online da cui attingono le informazioni. Poiché i documenti falsi erano strutturati e formattati come autentiche ricerche mediche professionali, risultavano particolarmente convincenti agli occhi dei modelli di intelligenza artificiale, che li hanno trattati come fonti attendibili. Un portavoce di OpenAI ha dichiarato che i modelli più recenti sono progettati per offrire informazioni sanitarie più accurate e sicure rispetto alle versioni precedenti. Allo stesso modo, anche Google ha precisato che le risposte problematiche provenivano da modelli ormai superati e che gli strumenti attuali incoraggiano gli utenti a verificare sempre le informazioni sensibili rivolgendosi a professionisti qualificati. Tuttavia, diversi esperti mettono in guardia dal considerare questo caso come un episodio isolato. Il problema, infatti, appare molto più ampio e complesso: con la diffusione sempre maggiore dell’intelligenza artificiale nei campi della consulenza e della ricerca sanitaria, esiste il rischio concreto che informazioni false o fuorvianti possano diffondersi rapidamente, soprattutto se i sistemi continuano ad assimilare contenuti non verificati o poco affidabili presenti in rete.L'articolo Cos’è la bixonimania, la malattia immaginaria che ha ingannato IA e umani. Gli esperti mettono in guardia: “L’esperimento ha funzionato fin troppo bene, attenzione, non è un caso isolato” proviene da Il Fatto Quotidiano.