Era un efecto esperado pero no por eso deja de ser igualmente peligroso. El auge de los modelos multimodales de IA ha hecho que prácticamente todos los utilicemos buscando ganar eficiencia o encontrar las mejores fuentes a la hora de buscar algún tipo de información, teniendo en cuenta que estos chatbots como Claude, ChatGPT o Gemini tienen acceso a prácticamente todo el conocimiento que la humanidad posee a la hora de entrenarse.Y esto es precisamente lo que está poniendo en peligro la IA, pues tal y como publicaban los compañeros de la revista Rolling Stone hace unos días, lo cierto es que hace tiempo que los modelos de IA han aprendido a mentir y a inventarse referencias que asienten sus respuestas, intentando convencernos de que tienen razón cuando en realidad están dando información 100% falsa.La cosa es peor, pues al parecer están proliferando referencias a artículos inventados o a revistas científicas que no existen en multitud de artículos de investigación, referencias que vienen obviamente del uso de la IA y que no se comprueban por parte de los académicos, socavando así la legitimidad de cualquier investigación científica y del conocimiento humano en general.Andrew Heiss, profesor en la Universidad Estatal de Georgia: "Las cosas generadas por IA se propagan en otras cosas reales, así que los estudiantes las ven citadas y asumen que son reales"La noticia surge de una entrevista con Andrew Heiss, un profesor asistente en el Departamento de Gestión Pública y Políticas en la Andrew Young School of Policy Studies de la Universidad Estatal de Georgia, quien mientras corregía trabajos de sus estudiantes hace unas semanas, advirtió referencias extrañas y citas inventadas a artículos académicos inexistentes que nada tenían que ver con la información necesaria para apuntalar los trabajos.Dice Heiss que había "muchos artículos generados por IA, que normalmente se nota y se retractan rápidamente", sobre todo en referencias, infografías e información generada por modelos de IA. No sólo eso, y es que extendiendo su búsqueda de fuentes inventadas en Google Scholar, este profesor descubrió que múltiples artículos de investigación publicados previamente se basaban en hallazgos y/o variaciones de estudios y revistas inventados por la IA.Esto ofrece fuentes que parecen verdaderas pero que apuntan a estudios que no lo son, blanqueando así los inventos de la IA ya que muchos estudiantes e investigadores se encuentran estas referencias y confían en que la fuente sea válida cuando en realidad no lo es."Las cosas generadas por IA se propagan en otras cosas reales, así que los estudiantes las ven citadas en cosas reales y asumen que son reales, confundiéndose sobre por qué pierden puntos por usar fuentes falsas cuando otras fuentes reales las usan. Todo parece real y transparente."Quizás la IA en lugar de ayudarnos a ser eficientes, en un futuro próximo, nos lleve a un mundo en el que perdamos más tiempo comprobando si nuestras referencias son válidas a la hora de redactar estudios y completar documentación.Lo cierto es que la IA es convincente pues las referencias parecen siempre reales, incluyendo nombres de académicos vivos o títulos que se parecen a literatura real. De hecho, es que en algunos casos esas referencias incluso llevan a autores reales, aunque tanto el título del artículo como la revista eran inventados por el modelo de IA."Los LLM son perniciosos porque, esencialmente, están contaminando el ecosistema de información aguas arriba. Las citas inexistentes aparecen en investigaciones que son descuidadas o deshonestas y de ahí llegan a otros artículos y artículos que las citan, y a otros que los citan, y luego se acaban en el agua. Es un resultado totalmente previsible de decisiones deliberadas." Anthony Moser, ingeniero de software y tecnólogo.La cosa es que la IA ha llenado todo de investigaciones falsas y referencias inventadas, así que todo el conocimiento humano está en peligro de contaminación por parte de los modelos, iniciando un proceso que algunos investigadores menos optimistas han denominado como "la destrucción del conocimiento".El ingeniero y tecnólogo Anthony Moser es uno de ellos: "Me imagino a un profesor en algún lugar haciendo un programa de clases con ChatGPT, asignando lecturas de libros que no existen."La sensación es que los científicos están ahora enterrados en una avalancha de paja, además teniendo una capacidad muy limitada para filtrarla ya que también existe presión para continuar publicando artículos que avancen con las investigaciones abiertas.Sin duda, hace falta una adopción más crítica de la IA que nos haga menos crédulos, pero queda claro que ahora mismo no es fácil creerse nada de información y vamos a tener que gastar tiempo en comprobarla, revisando si las fuentes son fiables... ¡Es algo desalentador, pero en realidad se veía venir!El artículo La "destrucción del conocimiento": la ciencia se está llenando de estudios fantasma inventados por la IA fue publicado originalmente en Andro4all.