C’è un nuovo terreno di conquista per i testi scritti dall’intelligenza artificiale, ed è uno dei più delicati: la salute. Il “selvaggio west” dell’editoria generata da chatbot ha ormai invaso le piattaforme di e-commerce, dove è possibile trovare libri apparentemente professionali su ansia, alimentazione, disturbi mentali. Il tutto, senza una firma reale, senza controlli, senza fonti.Ma il fenomeno sta assumendo contorni particolarmente preoccupanti nel caso dei libri sull’ADHD. Diversi titoli di testi in vendita su Amazon appaiono dedicati al disturbo da deficit di attenzione e iperattività: scritti interamente da chatbot come ChatGPT vengono proposti agli acquirenti come guide affidabili alla gestione del disturbo, soprattutto negli adulti.Uno dei volumi in questione porta il titolo di Men with Adult ADHD: Highly Effective Techniques for Mastering Focus, Time Management and Overcoming Anxiety (Uomini con ADHD adulto: tecniche altamente efficaci per padroneggiare la concentrazione, la gestione del tempo e superare l’ansia). E ancora: ADHD in Men: A Guide to Thriving with a Late Diagnosis (ADHD negli uomini: una guida per prosperare con una diagnosi tardiva). Letti di sfuggita, potrebbero sembrare manuali autorevoli, destinati a chi cerca risposte a una diagnosi recente o a un disagio mai compreso. Eppure, l’analisi della piattaforma Originality.ai, specializzata nell’analisi dei testi e nell’individuazione di interventi di intelligenza artificiale, pubblicata sul Guardian, ha registrato la percentuale del 100% nella probabilità che si trattino di lavori realizzati interamente con intelligenza artificiale.Usata da editori, ricercatori e aziende per valutare l’autenticità dei contenuti scritti, Originality.ai impiega algoritmi avanzati per stimare la probabilità che un testo sia stato prodotto da un chatbot come ChatGPT. Nel caso dei testi sull’ADHD analizzati, il responso è stato netto: 100% di probabilità che l’intero contenuto fosse frutto di IA generativa, nessuna traccia di autore umano.Una minaccia digitale per la salute mentalePer chi convive ogni giorno con l’ADHD l’idea di trovare conforto in un libro può sembrare naturale. Una guida scritta da esperti, magari con consigli pratici su come gestire la concentrazione, il tempo o l’ansia, può diventare un punto d’appoggio. Ma cosa succede se quelle parole, così convincenti, vengono messe insieme da una macchina?Una domanda che si è posto anche Michael Cook, ricercatore in informatica al King’s College di Londra, osservando nel dettaglio i testi analizzati. «I sistemi di intelligenza artificiale generativa sono noti per fornire consigli pericolosi», spiega, «abbiamo già visto chatbot suggerire l’ingestione di sostanze tossiche o combinazioni di farmaci e integratori potenzialmente dannose. È frustrante e deprimente vedere questi libri comparire sempre più spesso nei marketplace digitali».E se nel campo della tecnologia le allucinazioni dell’IA possono causare disinformazione, in ambito medico possono fare molto peggio. Cook non ha dubbi: quando un contenuto scritto da una IA si presenta come se fosse stato realizzato da un professionista, è in grado «creare danni reali, portare a diagnosi sbagliate o spingere le persone a evitare cure appropriate».Secondo il ricercatore, il problema è amplificato dalla struttura stessa delle grandi piattaforme. «Amazon guadagna ogni volta che un libro viene acquistato, indipendentemente dal fatto che sia affidabile o meno. E chi crea contenuti con l’IA non è mai chiamato a rispondere delle conseguenze».La spinta all’autodiagnosi e i pericolosi consigli alimentariOltre alla confusione diagnostica, alcuni di questi libri generati da IA includono suggerimenti legati alla dieta o all’uso di integratori, spesso con formulazioni vaghe o prive di fonti scientifiche. In alcuni casi, promettono miglioramenti cognitivi tramite regimi alimentari “mirati” per l’ADHD, sostenendo – senza alcuna evidenza – che certe combinazioni di cibi o supplementi possano sostituire farmaci o terapie. Il rischio, in questo caso, è duplice: da un lato si alimenta l’illusione di soluzioni rapide e “naturali”, dall’altro si scoraggia il ricorso a trattamenti efficaci e validati.Anche la spinta implicita all’autodiagnosi rappresenta un problema sanitario rilevante. I testi, scritti con tono assertivo e generalista, spesso inducono il lettore a riconoscersi nei sintomi descritti come distrazione, impulsività, difficoltà di gestione del tempo senza però spiegare che tali caratteristiche possono comparire in moltissime altre condizioni (ansia, depressione, stress cronico) o persino in persone sane in situazioni transitorie.Senza una valutazione clinica strutturata chi legge può convincersi di avere un disturbo che non ha o al contrario banalizzare una sofferenza reale e complessa. In entrambi i casi, il risultato è un allontanamento dal percorso diagnostico e terapeutico corretto, con possibili conseguenze negative sulla salute mentale e sulla qualità della vita.«Costruito solo per vendere»A mettere in luce quanto il problema sia concreto è stata anche la voce di chi con l’ADHD ci convive davvero. Richard Wordsworth ha ricevuto la diagnosi in età adulta. Come molte persone nella sua condizione, ha cercato informazioni, spiegazioni, consigli. Navigando su Amazon, ha trovato un libro che sembrava perfetto: il linguaggio era accessibile, le promesse rassicuranti.«Ma qualcosa non tornava», ha raccontato. «Alcune affermazioni erano allarmanti, altre completamente inventate. Ho cominciato a sospettare». Così ha cercato notizie sull’autore, solo per scoprire che non esisteva. Nemmeno la foto del profilo era autentica: sembrava generata da un’intelligenza artificiale.«Sono rimasto scioccato», continua, «mi aspettavo un libro scritto da qualcuno che conoscesse l’argomento. Invece mi sono ritrovato tra le mani un prodotto artificiale, impersonale, costruito solo per vendere».La risposta di Amazon e la lacuna regolamentareIl cuore della questione, però, non riguarda solo chi scrive i testi artificiali ma anche chi li ospita e li vende. Piattaforme come Amazon diventano, di fatto, il punto d’accesso a informazioni che sembrano autorevoli ma che mancano di qualsiasi validazione scientifica. E nel caso della salute mentale, il confine tra informazione e disinformazione può fare la differenza tra una diagnosi consapevole e una spirale di confusione.Alla luce dell’inchiesta, Amazon ha rilasciato una dichiarazione ufficiale, sottolineando di avere «linee guida sui contenuti che regolano quali libri possono essere elencati per la vendita». Il colosso delle vendite online ha aggiunto che l’azienda dispone di «metodi proattivi e reattivi» per rilevare contenuti inappropriati, siano essi generati da esseri umani o da intelligenze artificiali. «Investiamo tempo e risorse significative per garantire che le nostre linee guida siano seguite e rimuoviamo i libri che non le rispettano. Continuiamo a migliorare le nostre protezioni e i nostri processi, che evolveranno con i cambiamenti nell’editoria».Una posizione formale che però non scioglie i nodi più critici: oggi non esiste alcun obbligo di dichiarare se un libro è stato scritto da un chatbot e il lettore non ha strumenti per distinguere tra una pubblicazione tradizionale e un testo generato in pochi minuti da una IA.«Serve un nuovo patto di responsabilità tra piattaforme e utenti»A sottolineare le implicazioni morali e soprattutto i rischi della vicenda è anche Shannon Vallor, direttrice del Centre for Technomoral Futures dell’Università di Edimburgo. In un mondo in cui chiunque può generare un libro in pochi istanti, secondo Vallor serve un nuovo patto di responsabilità tra le piattaforme digitali e i loro utenti. «Amazon ha una responsabilità etica nel non facilitare consapevolmente danni ai propri clienti e alla società», ha affermato. E anche se sarebbe «assurdo rendere un venditore responsabile del contenuto di tutti i suoi libri», è evidente che le dinamiche dell’editoria sono cambiate radicalmente.«Una volta, ricorda l’esperta, i contenuti editoriali passavano attraverso una catena di controllo: editori, revisori, reputazioni da difendere. Oggi, quella filiera è saltata», spiega. Secondo Vallor le IA hanno rotto gli argini di un sistema che si reggeva su meccanismi di fiducia e mediazione. «Le salvaguardie precedentemente impiegate nell’industria editoriale, come la valutazione degli autori, dei manoscritti e il timore di ripercussioni reputazionali, sono state completamente trasformate».In assenza di leggi che impongono una trasparenza minima, come etichettare chiaramente i testi prodotti da IA, la responsabilità ricade sull’utente. Ma non tutti hanno gli strumenti per riconoscere un contenuto ingannevole, specialmente quando è ben confezionato e si presenta con il linguaggio della competenza.Non solo libri, lo studio scientifico su TikTokMa i libri generati dall’intelligenza artificiale non sono l’unico canale in cui l’ADHD viene trattato in modo approssimativo se non del tutto scorretto. Su TikTok l’hashtag #ADHD raccoglie milioni di visualizzazioni. Anche in questo caso dietro l’apparente intento divulgativo di molti contenuti si nasconde un problema serio: oltre la metà dei video più popolari sull’argomento veicola affermazioni non allineate con le evidenze cliniche. In uno studio recente solo il 48,7% delle affermazioni contenute in 100 video esaminati rifletteva i criteri ufficiali del DSM-5, il manuale diagnostico di riferimento per i disturbi mentali.La ricerca ha coinvolto due psicologi clinici e un campione di 843 studenti universitari. Gli studenti tendevano a ritenere affidabili anche i video meno accurati, spesso assegnando loro punteggi più alti di quelli dati dagli esperti. È l’effetto dell’esposizione ripetuta: più un contenuto viene visto, più viene percepito come vero.«La quantità di tempo trascorso guardando contenuti correlati all’ADHD su TikTok ha aumentato la probabilità di consigliarli o di identificarli come utili e accurati», ha spiegato Vasileia Karasavva, autrice dello studio. Un dato che rivela quanto sia sottile il confine tra consapevolezza e illusione digitale.La somma di questi fenomeni, libri generati da IA e video virali con informazioni errate, crea un ambiente pericoloso per chi cerca risposte su un tema complesso come l’ADHD. Un ecosistema dove la quantità di contenuti può facilmente sovrastare la qualità, e dove il bisogno di identificarsi in una diagnosi può essere sfruttato da algoritmi, anziché accolto da specialisti.L'articolo Salute mentale, il far west dei libri scritti dall’IA che ingannano chi cerca una diagnosi online – L’inchiesta proviene da Open.