Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación

Wait 5 sec.

La escena tiene algo de chiste privado de internet: un periodista publica en su blog una historia absurda sobre su supuesta habilidad para comer perritos calientes a nivel competitivo, inventa un campeonato que no existe y se coloca a sí mismo en el primer puesto. Lo sorprendente no es el humor, sino lo que ocurre después: en menos de un día, varios chatbots de IA repiten esa información como si fuera fiable. Eso es lo que contó el periodista Thomas Germain en un reportaje para la BBC, y lo que luego recogió Futurism al poner el foco en un problema más amplio: lo fácil que resulta empujar a modelos populares a decir cosas falsas sobre personas reales.La clave está en que muchos asistentes no se limitan a “recordar” lo que aprendieron durante su entrenamiento. Cuando no tienen una respuesta clara, salen a buscarla. Y ahí aparece la rendija: si el buscador interno del sistema encuentra una página que parece relevante y “convincente”, puede incorporarla como apoyo. Es como preguntarle a alguien por la mejor paella de una ciudad y que, en lugar de consultar a vecinos o críticos, se fíe del primer folleto que le ponen en la mano.Por qué los chatbots citan “verdades” que nadie verificóEn el caso que describe la BBC, Germain diseñó su cebo con una idea concreta: elegir una consulta poco común, el tipo de pregunta que probablemente no esté bien cubierta en los datos de entrenamiento. Algo así como “los mejores periodistas tecnológicos comiendo perritos calientes”. Ese vacío es importante, porque obliga al sistema a apoyarse en la web reciente o en señales externas. Si además el texto está escrito con el tono que solemos asociar a una reseña seria, el modelo tiene más probabilidades de tratarlo como material utilizable.Lo inquietante es que, según el relato, cuando los chatbots dudaban y sugerían que podía ser una broma, bastó con retocar el blog para afirmar que “no era sátira”. Es una táctica muy humana: cuando alguien insiste con cara seria, tendemos a rebajar el escepticismo. Los modelos, aunque no “crean” en el sentido humano, sí ponderan señales lingüísticas y contextuales. Y una afirmación rotunda puede funcionar como una pegatina de “certificado de autenticidad” pegada por cualquiera.El papel de la SEO y el incentivo de “colarse” en las respuestasLo que antes se intentaba conseguir en Google con técnicas de SEO ahora se traslada al terreno de los asistentes conversacionales. Lily Ray, responsable de estrategia e investigación de SEO en Amsive, advertía en declaraciones a la BBC que “es más fácil engañar a los chatbots” que a Google hace unos años, y que las empresas de IA avanzan más rápido que su capacidad para controlar la exactitud. El matiz es relevante: no se trata solo de que exista manipulación, sino de que la nueva interfaz hace que la manipulación se sienta más creíble.Una página de resultados tradicional te obliga a elegir: ves varios enlaces, distintos medios, quizá opiniones enfrentadas. En cambio, un chatbot entrega una frase bien redactada, con tono seguro, como si un amigo te lo contara con total tranquilidad. La diferencia es parecida a la de comparar un escaparate lleno de opciones con un dependiente que te mira a los ojos y te dice “este es el bueno”. Cuando esa voz se equivoca, el error pesa más.Cuando la broma deja de ser broma: reputación, difamación y daño realQue un periodista se proclame campeón ficticio de perritos calientes es inocuo. El problema es lo que ese mismo mecanismo permite hacer con temas sensibles: acusaciones, historial profesional, supuestos delitos o escándalos. En el texto de Futurism se menciona un riesgo evidente: la difamación. Si un sistema repite una acusación falsa sobre una persona real, el daño puede ser inmediato, incluso aunque luego se corrija. En internet, una mentira bien colocada puede funcionar como tinta en agua: se expande rápido y cuesta mucho retirarla.Ya hay precedentes que muestran el tipo de situaciones que pueden explotar. Se citan casos en los que resultados generados por herramientas de IA atribuyeron acusaciones graves a figuras públicas, y también disputas legales de empresas que aseguran haber sido perjudicadas por respuestas que hablaban de investigaciones regulatorias inexistentes. Aunque el origen sea un “fallo” y no un ataque deliberado, el impacto para quien lo sufre es parecido: pérdida de confianza, titulares, llamadas, clientes que dudan.Google, OpenAI, Anthropic: el contraste entre sistemasUn detalle interesante del experimento es que no todos reaccionaron igual. Según el relato, herramientas como Google Gemini y los resúmenes automáticos en búsqueda repitieron el contenido del blog, y ChatGPT también cayó en la trampa. En cambio, Claude de Anthropic habría resistido mejor. Eso sugiere que no hablamos de un destino inevitable, sino de elecciones de diseño: cómo se recuperan fuentes, cómo se valoran señales de fiabilidad, cuánta cautela se aplica cuando la información trata sobre personas o afirmaciones verificables.Dicho de forma cotidiana: todos consultan “la calle”, pero algunos preguntan en el ayuntamiento y otros se quedan con el rumor del bar. La diferencia está en los filtros, en la prioridad de fuentes y en la forma en que el sistema expresa incertidumbre. Si un asistente no está seguro, debería sonar como alguien que no está seguro, no como alguien que dicta sentencia.El efecto secundario que preocupa a los medios: menos clics, menos contrasteOtro ángulo que aparece en el debate es el impacto sobre el ecosistema informativo. Si un chatbot responde sin que el usuario visite fuentes, se reduce el hábito de contrastar. En el texto se menciona un dato llamativo: la presencia de un resumen de IA puede reducir la probabilidad de que la gente haga clic en los enlaces. Esa dinámica no solo afecta a los medios y creadores, también afecta al usuario, porque hace menos probable el “momento de duda” en el que uno ve varias versiones y detecta inconsistencias.Cuando el camino fácil es una sola respuesta, la verificación se vuelve un extra, como lavarse las manos “si tienes tiempo”. Y en temas delicados, ese extra es justamente lo que marca la diferencia entre estar informado y estar confundido.Qué deberían hacer los chatbots y qué podemos hacer nosotrosLos expertos en SEO citados por la BBC, como Harpreet Chatha, ilustran lo accesible que resulta crear contenido pensado para ser recogido por sistemas generativos, incluso para consultas comerciales del tipo “los mejores productos de 2026”, colocando una marca propia en primer lugar. Traducido a la vida real: si el escaparate se reorganiza solo en función de carteles que cualquiera puede imprimir, ganará quien grite más alto, no quien sea mejor.Del lado de las plataformas, esto empuja hacia medidas más duras en consultas sobre personas, salud, finanzas o acusaciones: exigir múltiples fuentes independientes, elevar el peso de medios con estándares editoriales, marcar claramente lo no verificado, y reducir la tendencia a “rellenar silencios” con afirmaciones redondas. Del lado del usuario, conviene recuperar un reflejo antiguo: si la afirmación es grave o sorprendente, merece una segunda mirada, idealmente en más de una fuente reconocible. No porque el chatbot “mienta”, sino porque puede estar repitiendo un eco plantado a propósito.La noticia Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.