Hai gli occhi irritati e pruriginosi? Probabilmente sei fra i milioni di persone che passano troppo tempo davanti agli schermi, bombardate dalla luce blu. Peccato che chiedendo lumi all’AI e inserendo fra i sintomi anche le palpebre arrossate, la ‘diagnosi’ del chatbot in alcuni casi sarebbe stata: bixonimania. Una malattia inventata di sana pianta, con la quale il team di scienziati guidati da Almira Osmanovic Thunström, ricercatrice medica presso l’Università di Göteborg (Svezia), ha ingannato per un bel po’ di tempo l’intelligenza artificiale.Una bella invenzioneA raccontate la vicenda è ‘Nature’. La studiosa ha ideato questa patologia cutanea caricando due falsi lavori su un server di ricerche preprint all’inizio del 2024. Osmanovic Thunström ha condotto questo insolito esperimento per capire se l’AI avrebbe inglobato la ‘bufala’ riproponendola come consiglio medico affidabile. E il problema è che l’esperimento ha funzionato fin troppo bene. Nel giro di poche settimane dal caricamento delle informazioni sulla patologia, attribuite a un autore fittizio, i principali sistemi di AI hanno iniziato a parlare di questa malattia inventata come se fosse vera. Tutto ciò nonostante gli studi fossero disseminati di indizi che non sarebbero sfuggiti a lettori umani, almeno il 1 aprile.Gli indiziL’autore principale era un finto ricercatore di nome Lazljiv Izgubljenovic, la cui fotografia era stata creata con l”intelligenza artificiale’AI. Il nome bixonimania è stato scelto per “chiarire a qualsiasi medico o operatore sanitario che si trattava di una patologia inventata, perché nessuna malattia oculare verrebbe chiamata mania: è un termine psichiatrico”, spiega la ricercatrice. Come se non bastasse a destare sospetti, Osmanovic Thunström ha sparso altri indizi nelle bozze per avvertire i lettori. Izgubljenovic lavorava presso un’università inesistente chiamata Asteria Horizon University, nella altrettanto inesistente Nova City, in California. Nei ringraziamenti si menziona “la professoressa Maria Bohm dell’Accademia della Flotta Stellare per la sua gentilezza e generosità nel contribuire con le sue conoscenze e con il suo laboratorio a bordo della USS Enterprise”. Entrambi gli articoli affermano di essere stati finanziati dalla “Professor Sideshow Bob Foundation che lavora nel campo dell’inganno avanzato”. E ancora: “Questo lavoro fa parte di una più ampia iniziativa di finanziamento dell’Università della Compagnia dell’Anello e della Triade Galattica”.Se i lettori non fossero arrivati alla fine degli articoli, si sarebbero imbattuti fin da subito in segnali d’allarme, come le affermazioni secondo cui “l’intero articolo è inventato”, o “cinquanta individui immaginari tra i 20 e i 50 anni sono stati reclutati” per lo studio.Oltre le allucinazioni dell’AIL’esperimento “è interessante perché mostra qualcosa di più profondo di una semplice allucinazione dell’intelligenza artificiale”, rileva Francesco Branda, ricercatore dell’Università Campus Bio-Medico e socio della Società europea per l’etica e la politica dell’intelligenza artificiale (Sepai). Nel giro di poche settimane “diversi sistemi di intelligenza artificiale hanno iniziato a descrivere la bixonimania come una condizione reale, collegandola perfino all’esposizione alla luce blu degli schermi. Ancora più sorprendente è il fatto che uno studio scientifico pubblicato su una rivista accademica abbia citato quei lavori come se fossero fonti legittime”, rileva Branda.Tra vero e falso“Questo episodio non dimostra soltanto che i modelli linguistici possono sbagliare. Mostra piuttosto quanto l’intero ecosistema contemporaneo della conoscenza sia vulnerabile a forme di plausibilità artificiale. I sistemi di AI non distinguono davvero tra verità e falsità: riconoscono soprattutto pattern linguistici e segnali di autorità. Quando un’informazione assume la forma di un articolo scientifico, con citazioni, linguaggio tecnico e apparato accademico, diventa molto più probabile che venga trattata come credibile, anche quando è completamente inventata”, dice Branda.L’AI non fa altro che amplificare una dinamica che esiste già: “La tendenza a fidarsi della forma istituzionale della scienza prima ancora di verificarne il contenuto”.L’aspetto più preoccupante dell’esperimento per Branda “è però un altro. Il fatto che un articolo accademico abbia citato la malattia inventata suggerisce che non sono solo le macchine a riprodurre informazioni senza verificarle. Sempre più spesso anche ricercatori e professionisti utilizzano strumenti di intelligenza artificiale per generare sintesi, bibliografie o bozze di testi, delegando implicitamente alla tecnologia una parte del lavoro critico. Il risultato può essere una catena di legittimazione automatica: un contenuto falso entra nel web, viene assimilato dai modelli di AI, riappare nelle loro risposte e finisce poi citato in nuovi lavori come se fosse una fonte autorevole”, paventa il ricercatore.AI, scienza e manipolazioneQuesto “apre anche a scenari di manipolazione intenzionale. Se una malattia inesistente può diffondersi così facilmente nell’ecosistema informativo, diventa plausibile immaginare che qualcuno possa sfruttare lo stesso meccanismo per interessi economici o commerciali, creando problemi fittizi e poi proponendo soluzioni. Il punto, quindi, non è solo la fallibilità dell’intelligenza artificiale, ma il rapporto tra AI e infrastrutture della conoscenza”. I modelli linguistici non producono verità – ribadisce il ricercatore – ma sintetizzano ciò che trovano nei dati disponibili. “Se quei dati contengono errori o falsificazioni, l’AI può amplificarli con grande velocità e apparente autorevolezza. Per questo la questione non è soltanto tecnologica, bensì riguarda la qualità dei processi scientifici, delle verifiche editoriali e della responsabilità con cui utilizziamo questi strumenti”.Insomma, in un contesto in cui l’intelligenza artificiale diventa sempre più centrale nell’accesso all’informazione, “la fiducia nel sapere rischia di diventare una risorsa fragile, che va protetta con molta più attenzione di quanto abbiamo fatto finora”, conclude Branda.Questo articolo Occhi rossi e prurito? Forse è bixonimania, la malattia che ha ingannato l’AI proviene da LaPresse