IA e medici insieme, diagnosi più accurate e meno errori

Wait 5 sec.

AGI - Sappiamo già che l'intelligenza artificiale può supportare efficacemente i medici nella formulazione delle diagnosi; la novità consiste nello scoprire che IA ed esperti umani "sbagliano" in maniera differente: una complementarietàstudio internazionale guidato dal Max Planck Institute for Human Development, in collaborazione con lo Human Diagnosis Project (Human Dx) e con l'Istituto di scienze e tecnologie della cognizione del CNR (Cnr-Istc).Lo studio, pubblicato sulla prestigiosa rivista PNAS, ha dimostrato che la combinazione delle competenze umane con la capacità dei sistemi IA contemporanei porta a diagnosi significativamente più accurate. Gli errori diagnostici sono tra i problemi più gravi nella pratica medica quotidiana. I sistemi basati su IA, in particolare i modelli linguistici di grandi dimensioni (LLM) come ChatGPT-4, Gemini o Claude 3, offrono nuovi modi per supportare le diagnosi mediche, ma comportano anche rischi considerevoli: possono "allucinare", generare false informazioni e riprodurre pregiudizi osservabili in ambito medico e sociale.Team ibridi: IA e umani insiemeIl team ha studiato come esperti umani e sistemi IA possano collaborare al meglio. Il risultato è che i team ibridi – composti sia da esperti umani che da sistemi IA – sono significativamente più accurati dei team composti esclusivamente da esperti umani o da IA. Questo vale soprattutto per quesiti diagnostici complessi e aperti con numerose possibili soluzioni. Secondo Nikolas Zoller, autore principale e ricercatore post-dottorato presso il Center for Adaptive Rationality del Max Planck Institute, la cooperazione tra umani e IA ha un grande potenziale per migliorare la diagnosi medica e la salute dei pazienti.Metodologia e risultatiI ricercatori hanno utilizzato i dati forniti da Human Dx, associando a vignette cliniche – brevi descrizioni testuali di casi – le diagnosi corrette. Utilizzando oltre 2.100 vignette, lo studio ha confrontato le diagnosi formulate da professionisti medici con quelle di cinque sistemi IA. Sono stati simulati diversi team diagnostici: individui, team umani, team IA e team misti. In totale, sono state analizzate oltre 40.000 diagnosi, valutate secondo gli standard medici internazionali SNOMED CT.La combinazione di più sistemi IA ha migliorato la qualità diagnostica. In media, i team IA hanno ottenuto risultati migliori rispetto ai team umani nell'85% dei casi. Tuttavia, ci sono stati numerosi casi in cui gli esperti umani hanno fornito la diagnosi corretta quando l’IA falliva. La complementarietà degli errori rende i team ibridi particolarmente efficaci.Limiti dello studio e prospettive futureSecondo Stefan Herzog, ricercatore senior al Max Planck Institute, l’IA non deve sostituire gli esseri umani, ma essere considerata uno strumento complementare nel processo decisionale collettivo. Tuttavia, lo studio ha analizzato solo casi clinici testuali, non pazienti reali, e si è limitato alla fase diagnostica, senza considerare le conseguenze terapeutiche.Resta incerto come i sistemi IA saranno accettati nella pratica clinica da personale medico e pazienti. I rischi di pregiudizi e discriminazioni – etnici, sociali o di genere – richiedono ulteriori ricerche. Lo studio fa parte del progetto Hybrid Human Artificial Collective Intelligence in Open-Ended Decision Making (HACID), finanziato da Horizon Europe, che mira a sviluppare sistemi di supporto alle decisioni cliniche integrando intelligenza umana e artificiale.Applicazioni in altri ambitiSecondo Vito Trianni, dirigente di ricerca del Cnr-Istc e coordinatore del progetto HACID, l’approccio può essere trasferito anche ad altri ambiti professionali come il sistema legale, la risposta alle emergenze ambientali o le politiche climatiche. Il progetto HACID sta sviluppando strumenti per migliorare il processo decisionale nello sviluppo di strategie di adattamento al cambiamento climatico.