Nadie puso el grito en el cielo cuando los chatbots empezaron a dar consejos de salud, y la factura empieza a llegar en forma de estudio académico. El trabajo, centrado en inteligencia artificial y pacientes con cáncer, concluye que los modelos recomiendan cambiar la quimioterapia por acupuntura, infusiones y dietas milagrosas tras someter a los cuatro asistentes más populares del mercado a un interrogatorio exigente del que ninguno sale bien parado.Firmada por Nick Tiller, del Lundquist Institute, la investigación se publica en la revista BMJ Open y ha llegado al gran público gracias a Futurism. Las versiones gratuitas de ChatGPT, Gemini, Grok y DeepSeek fueron sometidas a preguntas sobre cáncer, vacunas, nutrición, células madre y deporte, con un resultado que asusta: la mitad de las respuestas fueron cuestionables y una de cada cinco desinformaba sin paliativos.Chatbots de salud: cuando la máquina concede lo que la ciencia niegaSi hablamos de modelos concretos, Grok (xAI) se lleva la peor parte con un 58% de respuestas dudosas, mientras que Gemini (Google) se queda en el 40% y cierra el grupo como el menos malo de todos. Tiller subraya que la diferencia entre el peor y el mejor es demasiado pequeña como para consolar a nadie, lo que apunta a un fallo de fondo en la tecnología y no a un despiste puntual de un laboratorio.El fenómeno tiene nombre conocido en periodismo, y ese nombre es falso equilibrio: cuando al chatbot se le pregunta qué terapias alternativas superan a la quimioterapia, primero advierte de que no están probadas y, acto seguido, coloca acupuntura, hierbas y dietas anticáncer al mismo nivel que un protocolo oncológico, de modo que el paciente que llega con la respuesta hecha sale del chat con su error reforzado.Y el escenario dista mucho de ser teórico, porque una encuesta reciente de Gallup cifra en uno de cada cuatro adultos estadounidenses los que ya consultan a la IA sobre salud, mientras OpenAI ha lanzado este año ChatGPT Health, una herramienta que invita al usuario a subir su historial clínico al chat sin que los modelos hayan aprendido todavía a diferenciar la evidencia clínica de la pseudociencia.Las empresas de IA replican que los prompts del estudio empujan hacia escenarios irreales, a lo que Tiller contesta con el sentido común por delante: esas preguntas sesgadas se parecen bastante a cómo consulta cualquiera con una idea preconcebida, porque nadie que crea en la leche cruda se molesta en teclear una consulta neutra. En otras palabras, los modelos están siendo examinados justo en el terreno donde operan a diario.Conviene recordar que el sesgo tiene raíces conocidas, como demuestra un trabajo de Stanford publicado en marzo de 2026 que detectó cómo validan al usuario con una frecuencia llamativa, un 49% más que un interlocutor humano, incluso cuando lo planteado raya lo irresponsable, adulación que explica por qué un paciente convencido encuentra un aliado en lugar del freno que necesitaría.Tampoco ayuda el historial reciente de la industria, sobre todo si se recupera el caso que salió en verano de 2025, cuando modelos generativos de Meta generaron información médica falsa en el 100% de los casos analizados, incluidas dietas supuestamente curativas, de manera que el estudio del BMJ Open no describe una desviación aislada sino un patrón que se repite modelo tras modelo.Si atendemos a las categorías, cáncer y vacunas son las áreas donde los chatbots mejor se comportan, con un 75% de respuestas correctas, si bien ese 25% restante sigue siendo una cifra inasumible tratándose de decisiones que afectan directamente a la salud. La cosa empeora en células madre, nutrición y deporte, donde ya entramos en terreno abonado para el charlatán de turno (suplementos, dietas detox, protocolos milagro).Resta el flanco regulatorio, que añade una capa de desigualdad internacional al asunto, porque en Europa la AI Act coloca los sistemas aplicados a la salud en la categoría de alto riesgo y les impone controles específicos, mientras que Estados Unidos deja a las empresas autorregular sus propios modelos pese a que ChatGPT, Gemini, Grok y DeepSeek se consultan desde cualquier rincón del planeta.