L’uso non autorizzato dell’AI negli ospedali e le ‘allucinazioni cliniche’

Wait 5 sec.

L’intelligenza artificiale ha già varcato la soglia degli ospedali, non sempre con protocolli ufficiali o linee guida condivise, ma spesso per iniziativa individuale. È la cosiddetta ‘Shadow AI’: strumenti usati senza autorizzazione per alleggerire carichi di lavoro sempre più pressanti. Un recente sondaggio – condotto negli Stati Uniti da Cite Research per conto di Wolters Kluwer Health – su oltre 500 professionisti sanitari fotografa bene il fenomeno: il 41% dei professionisti è a conoscenza dell’uso di strumenti non autorizzati da parte dei colleghi e il 17% ammette di averli impiegati personalmente.Il dato più interessante è la frattura culturale. Se tra gli amministratori a essere ottimista sugli effetti dell’AI nel medio periodo è il 48%, tra i medici la percentuale scendere al 34%, sebbene questi ultimi siano anche quelli che sperimentano di più, spesso per necessità o semplice curiosità.Sicurezza a rischio con la Shadow AIMa il prezzo di questa scorciatoia rischia di essere alto. La sicurezza del paziente è la preoccupazione numero uno dei professionisti del settore clinico-ospedaliero. Quasi un quarto degli intervistati evidenzia il rischio di intrusioni informatiche, accessi non autorizzati e la necessità di misure di protezione robuste. Il secondo problema più rilevante per i medici è il rischio di allucinazioni cliniche generate dall’AI: il 42% teme output errati dagli strumenti non certificati che mettono a rischio la sicurezza e la conformità normativa e il 30% dedica particolare attenzione al monitoraggio del bias algoritmico come rischio critico per l’equità delle cure.I costi dell’uso non autorizzato dell’AIL’uso di strumenti di AI non autorizzati può generare impatti estesi e costi elevati. Un’analisi condotta da IBM indica che nel 2025 il costo medio di una violazione di sicurezza nel settore sanitario ha superato i 7,42 milioni di dollari (circa 6,91 milioni di euro); il 97% delle organizzazioni con incidenti di sicurezza legati all’AI era privo di adeguati controlli di accesso e il 63% era privo di policy di governance dell’AI.Il contesto italiano In un momento in cui anche il sistema sanitario italiano affronta importanti criticità legate alla carenza di personale e alla gestione dei flussi documentali previsti dal Pnrr, il fenomeno della Shadow AI sta ridefinendo le modalità di cura del paziente, con dati che mostrano un’adozione spontanea spesso superiore alla media globale.Secondo l’Osservatorio sanità digitale del Politecnico di Milano, il 46% dei medici di medicina generale (MMG) e il 26% dei medici specialisti in Italia hanno già utilizzato strumenti di intelligenza artificiale generativa nella propria pratica clinica. Questo dato si inserisce in un contesto nazionale dove il 68% degli operatori sanitari ammette di utilizzare l’IA senza informare i propri vertici aziendali.Colmare il vuoto di governance Questi dati sono l’espressione di un segnale di urgenza. I professionisti della salute sono sottoposti a una pressione senza precedenti ed è quindi naturale che cerchino nell’innovazione un alleato. Tuttavia, quando questa ricerca avviene nell’ombra, i benefici dell’efficienza vengono annullati da rischi sistemici inaccettabili.L’obiettivo non è limitare l’accesso alla tecnologia, ma colmare il vuoto di governance. La tecnologia da sola non basta: è necessario lavorare su processi integrati e rinnovati modelli organizzativi e di validazione degli strumenti per ottimizzare le risorse.Questo articolo L’uso non autorizzato dell’AI negli ospedali e le ‘allucinazioni cliniche’ proviene da LaPresse