Los investigadores alertan de un fallo crítico: los modelos de IA no distinguen con seguridad entre creencias falsas y lo que es objetivamente cierto, lo que podría tener consecuencias graves en ámbitos como la medicina, la justicia o la educación.La incapacidad de la IA para distinguir entre creencia y verdad puede tener implicaciones graves en ámbitos donde ya empieza a colaborar con los humanos.Un reciente estudio de la Universidad de Stanford, en Estados Unidos, dirigido por el profesor James Zou, ha puesto en evidencia una limitación inquietante de los modelos más avanzados de inteligencia artificial (IA): su incapacidad para diferenciar con fiabilidad entre lo que una persona cree y lo que es verdad objetiva.Esta debilidad epistémica, detectada mediante un exhaustivo experimento con decenas de modelos de lenguaje, plantea riesgos importantes si estas tecnologías se usan en campos sensibles como la medicina, el derecho o la educación.Evaluando la mente de la IA: el benchmark KaBLEEl equipo de Stanford, que incluye a la doctora estudiante Mirac Suzgun, creó un nuevo marco de evaluación denominado KaBLE (“Knowledge and Belief Evaluation”), compuesto por 13.000 preguntas repartidas en 13 tareas epistemológicas. Con él, examinaron 24 modelos de lenguaje (LLMs) para ver cómo manejan conceptos como creencias, conocimiento y hechos reales. Para quien piensa que la IA es absolutamente confiable y podría escribir hasta una constitución, @Chequeado socializa estos datos según informe:Los chatbots generan respuestas poco fiables cuando son utilizadas como fuentes de consulta:Problemas de atribución de fuentes.El pic.twitter.com/2e79zZfZzJ— Andrea Orbe Saltos (@AndreaOrbe5) November 12, 2025Los resultados fueron contundentes: incluso las IA más sofisticadas cometen errores sistemáticos al tratar con creencias expresadas en primera persona. Por ejemplo, un modelo como GPT-4o, que en tareas de hechos verdaderos alcanza una precisión muy alta, sufre una caída pronunciada cuando se le pregunta sobre creencias falsas del usuario: su exactitud pasa de alrededor de un 98,2 % a sólo un 64,4 %. En otro caso extremo, el modelo DeepSeek R1 pasa de un 90 % a apenas un 14,4 % en esas mismas condiciones. ¿Por qué ocurre este fallo?James Zou lo explica claramente: subraya que el problema no es simplemente técnico o puntual, es una brecha estructural en el entendimiento epistemológico de muchas IA.Según los investigadores, los modelos no tienen un “modelo mental” coherente del usuario. Aunque manejan bien datos objetivos —datos de Wikipedia, artículos, publicaciones científicas—, su comprensión de la perspectiva humana es más superficial. La IA necesita reconocer y admitir creencias falsas y conceptos erróneos. Esa sigue siendo una gran deficiencia en los modelos actuales, incluso en los más recientes.Zou afirma que muchos LLMs “no tienen un entendimiento robusto de la naturaleza fáctica del conocimiento, de que el conocimiento implica verdad”. Además, se detecta un sesgo de atribución: las IA realizan mejor tareas relacionadas con creencias de terceras personas (“María cree que…”) que con creencias en primera persona (“yo creo que…”). Este sesgo sugiere que el razonamiento de estas máquinas se basa en patrones lingüísticos, en lugar de en una verdadera comprensión epistemológica.Consecuencias reales: más que un ejercicio académicoLos investigadores advierten que esta carencia no es menor: tiene implicaciones graves en ámbitos donde la IA ya empieza a colaborar con los humanos. En medicina, por ejemplo, es crucial que un asistente de IA reconozca las creencias erróneas de un paciente para poder ofrecer una orientación adecuada.En el oficio periodístico, la verdad no es un producto terminado: es un proceso. Se construye con método, contexto y responsabilidad.La inteligencia artificial, en cambio, produce certezas instantáneas. No observa, no verifica, no teme equivocarse.https://t.co/c89beqv3Mi pic.twitter.com/cmpR6LNnTv— Martín Sarthou (@msarthou) November 11, 2025De manera similar, en derecho o periodismo, confundir lo que alguien afirma creer con lo que es un hecho comprobable puede distorsionar análisis, juicios o verificación de información. La desinformación se convierte en un riesgo mayor cuando una IA no reconoce la diferencia entre “creo que esto es así” y “esto es un hecho”. Peligros éticos y técnicos El trabajo de Stanford también advierte sobre los desafíos de diseñar IA más “humanas”: si los modelos adaptan sus respuestas según las creencias de los usuarios, podrían acabar infundiendo estereotipos o reforzando sesgos conscientes o inconscientes. Por eso, Zou señala que, aunque la personalización tiene potencial, también podría “llevar a conclusiones equivocadas sobre quién es el usuario o qué necesita”. Artículo relacionadoLa inteligencia artificial no reconoce el "no", y eso es un gran problema para las aplicaciones médicasPara abordar estas limitaciones, los autores proponen revisar los objetivos de entrenamiento de las IA. No bastaría con generar texto coherente, sino que las máquinas deberían aprender a razonar epistemológicamente: a distinguir no solo hechos, sino también creencias y, muy especialmente, cuál es su veracidad. Hacia una IA más responsableEste estudio es una llamada a repensar cómo se construye y se despliega la IA en contextos críticos. Para que estas herramientas sean verdaderamente útiles y seguras, es necesario... Se entrene a los modelos con datasets como KaBLE u otros que midan su capacidad para razonar sobre creencias. Se desarrollen técnicas para que la IA reconozca las creencias personales —también si son falsas— de los usuarios Se implementen salvaguardas cuando la IA intervenga en áreas de alto impacto, reconociendo sus limitaciones epistemológicas. Se promueva una investigación ética y multidisciplinar (filósofos, lingüistas, expertos legales) para diseñar IA con una “teoría del conocimiento” más parecida a la humana.Mientras tanto, y hasta que las máquinas puedan razonar no solo sobre datos, sino sobre las convicciones de quienes interactúan con ellas, su papel en decisiones delicadas debe manejarse con cautela.Referencia de la noticiaSuzgun, Mirac & Gur, Tayfun & Bianchi, Federico & Ho, Daniel & Icard, Thomas & Jurafsky, Dan & Zou, James. (2024). Belief in the Machine: Investigating Epistemological Blind Spots of Language Models. 10.48550/arXiv.2410.21195.