La IA está replicando viejos prejuicios en la atención sanitaria

Wait 5 sec.

La promesa de la inteligencia artificial en la medicina es inmensa: diagnósticos más rápidos, reducción de la carga de trabajo para médicos sobrecargados y la posibilidad de anticipar enfermedades con una precisión sin precedentes. Sin embargo, una creciente cantidad de investigaciones está arrojando una advertencia inquietante: los sistemas de IA podrían perpetuar y agravar desigualdades que ya existen en la atención sanitaria, especialmente para mujeres y minorías étnicas. En lugar de corregir viejas carencias del sistema, las herramientas actuales corren el riesgo de reforzarlas bajo una apariencia de modernidad y objetividad.Cómo se manifiestan los sesgos en la IA médicaEstudios recientes de universidades punteras en Estados Unidos y Reino Unido han mostrado que los grandes modelos de lenguaje (como GPT-4 de OpenAI, Llama de Meta o Gemini de Google) tienden a minimizar los síntomas de las pacientes femeninas y a mostrar menos “empatía” en sus respuestas hacia personas negras o asiáticas, sobre todo en el ámbito de la salud mental. En algunos casos, recomendaron cuidados de menor intensidad o incluso aconsejaron tratarse en casa problemas que requerían atención médica.El problema no se limita al género o la raza. Los investigadores también observaron que mensajes con errores tipográficos, un lenguaje informal o expresiones poco seguras eran más proclives a recibir respuestas que desaconsejaban buscar ayuda médica, aunque la información clínica fuera idéntica. Esto implica que pacientes que no dominan el inglés o no están familiarizados con la tecnología podrían verse desatendidos injustamente.Las causas están en el origen de los datos: muchos modelos de uso general se entrenan con información extraída de internet, donde abundan estereotipos y sesgos culturales. Si el corpus de entrenamiento ya está desequilibrado, la IA lo reflejará en sus recomendaciones médicas. Tal como advirtió Travis Zack, profesor de la Universidad de California y responsable de la start-up Open Evidence, “si existe la posibilidad de que un foro de Reddit influya en tus decisiones de salud, eso no es un lugar seguro”.Los riesgos son serios. La investigación médica histórica ha estado fuertemente sesgada hacia los hombres, dejando rezagada la financiación y el conocimiento sobre enfermedades que afectan en mayor medida a las mujeres. Si las IA se entrenan sobre esos mismos datos, lo único que harán será replicar y amplificar esa desigualdad.Las grandes tecnológicas son conscientes del problema. OpenAI asegura que muchas de las críticas se basan en versiones antiguas de sus modelos y afirma haber mejorado la precisión con un énfasis en la seguridad sanitaria. Google, por su parte, insiste en que toma “muy en serio” los sesgos y trabaja en técnicas de privacidad y protección contra la discriminación. Aun así, expertos como Niki Iliadis advierten de que las soluciones actuales se quedan cortas y que es necesario definir qué conjuntos de datos no deben usarse desde el inicio, además de entrenar con información médica representativa y diversa.Algunos proyectos públicos apuntan en esa dirección. En el Reino Unido, el modelo Foresight, entrenado con datos anonimizados de 57 millones de pacientes del NHS, busca predecir riesgos de hospitalización o ataques cardíacos reflejando la diversidad real de la población. Otro ejemplo es Delphi-2M, desarrollado en Europa con el Biobanco británico, que proyecta susceptibilidad a enfermedades décadas antes de que aparezcan. Sin embargo, iniciativas de este tipo plantean dilemas sobre la privacidad de los pacientes y ya han provocado que el regulador británico investigue el uso de datos sensibles en algunos proyectos.El desafío es doble: por un lado, aprovechar las enormes ventajas que la IA puede aportar al diagnóstico y la investigación médica; por otro, evitar que estas herramientas se conviertan en una nueva fuente de discriminación y desigualdad sanitaria. Como resume Marzyeh Ghassemi, investigadora del MIT, el verdadero potencial de la IA en salud no está en añadir un punto extra de eficiencia donde los médicos ya son competentes, sino en cerrar las brechas que han dejado a millones de pacientes históricamente desatendidos.El artículo La IA está replicando viejos prejuicios en la atención sanitaria fue publicado originalmente en Andro4all.