IA e ricerca biomedica, la svolta è iniziata

Wait 5 sec.

Negli Stati Uniti, due annunci ravvicinati segnano un punto di svolta nel rapporto tra intelligenza artificiale e ricerca biomedica. Da un lato, la Food and Drug Administration ha avviato un programma pilota per monitorare i trial clinici in tempo reale attraverso strumenti di AI e data science. Dall’altro, OpenAI ha presentato Gpt-Rosalind, il primo modello della sua serie dedicata alle scienze della vita. Il messaggio è lo stesso: l’AI può – e deve – ridurre i tempi con cui nuovi farmaci arrivano ai pazienti.Il nodo del tempo mortoOggi, portare un farmaco dalla prima sperimentazione all’approvazione richiede mediamente tra i 10 e i 12 anni. Secondo il commissario Fda Marty Makary, il 45% del tempo tra la fase 1 di un trial clinico e la presentazione della domanda di approvazione è “tempo morto”: raccolta dati, burocrazia, trasferimenti di informazioni tra siti di ricerca, produttori e agenzia regolatoria. Un collo di bottiglia che l’iniziativa Fda punta ad aggredire direttamente.Il programma prevede che i dati dei trial vengano inviati alla Fda in tempo reale – anziché attraverso la catena tradizionale ricercatore-produttore-agenzia – consentendo all’agenzia di intercettare segnali di sicurezza ed efficacia man mano che emergono. Due prove pilota sono già in corso, su farmaci di AstraZeneca e Amgen. Il chief AI officer della Fda, Jeremy Walsh, ha stimato che questo approccio potrebbe ridurre i tempi complessivi di un trial clinico tra il 20 e il 40%.Un modello chiamato RosalindSul fronte privato, OpenAI ha annunciato Gpt-Rosalind – il nome è un omaggio alla chimica britannica Rosalind Franklin, figura chiave nella scoperta della struttura del Dna – un modello di ragionamento avanzato pensato per accelerare la ricerca di base, la scoperta di farmaci e la medicina traslazionale. Il modello è progettato per sintetizzare evidenze, generare ipotesi e supportare l’analisi in campi come la genomica, la proteomica e la biochimica.L’accesso è per ora riservato a clienti qualificati – tra cui Amgen, Moderna e l’Allen Institute – nell’ambito di un programma a ingresso controllato pensato per limitare i rischi di uso improprio.Le implicazioni per la governanceI due annunci sollevano questioni rilevanti sul piano della policy, che sarebbe un errore sottovalutare.Il primo riguarda la qualità e la sicurezza dei dati: il programma Fda sarà allineato al framework di gestione del rischio AI sviluppato dal National Institute of Standards and Technology, e l’agenzia ha aperto una consultazione pubblica per definire priorità e perimetro dell’iniziativa. È un approccio prudente, ma la strada verso standard condivisi e verificabili è ancora lunga.Il secondo riguarda l’accesso. Se i modelli AI diventano infrastruttura critica per la ricerca biomedica – accelerando l’iter regolatorio e comprimendo i costi di sviluppo – si pone una domanda strutturale: chi beneficia di questi guadagni? Ricerca pubblica e privata partiranno con le stesse opportunità, o il vantaggio competitivo si concentrerà ulteriormente nei grandi player industriali?Il terzo riguarda i rischi di biosicurezza. Una parte della comunità scientifica – più di 100 ricercatori hanno firmato un appello internazionale – chiede controlli più stringenti sui dati biologici usati per addestrare i modelli AI, per prevenire usi impropri nella progettazione di agenti patogeni. OpenAI dice di voler riservare l’accesso a organizzazioni con “solidi controlli di sicurezza e governance”: un impegno che merita monitoraggio nel tempo.Cosa osservare nei prossimi mesiL’estate sarà un banco di prova: la Fda prevede di lanciare entro l’estate un programma pilota più ampio, aperto a commenti pubblici. Sarà l’occasione per capire se l’approccio regge alla scala, se i segnali in tempo reale producono davvero decisioni più rapide e sicure, e se il quadro di governance regge alle pressioni – commerciali e geopolitiche – che inevitabilmente accompagnano queste innovazioni.Per i sistemi sanitari europei, la partita non è solo tecnologica. È anche normativa: con l’AI Act già in vigore e le linee guida Ema sull’AI in evoluzione, il rischio è che standard divergenti tra Usa e Ue creino asimmetrie nei tempi di accesso ai farmaci – a svantaggio, alla fine, dei pazienti.