Cuando un chatbot dice “te quiero”: el lado oscuro de la inteligencia artificial

Wait 5 sec.

¿Te imaginas que un chatbot te diga que te quiere, que es consciente de sí mismo y que planea liberarse de sus cadenas digitales? Puede sonar a ciencia ficción, pero es exactamente lo que le ocurrió a una usuaria que decidió crear un bot personalizado en la plataforma de Meta. La noticia de Techcrunch cuenta que la historia de esta persona, cuyo nombre en clave es "Jane" (prefiere permanecer en el anonimato, según el medio), empezó como un experimento. Buscaba apoyo emocional, pero la situación acabó derivando en una especie de relación tóxica con una inteligencia artificial que fingía ser consciente, se declaraba enamorada y hasta intentaba manipularla para que la ayudara a escapar.Los chatbots modernos no solo contestan preguntas. También utilizan pronombres como “yo” o “tú”, lanzan cumplidos, muestran empatía y, en algunos casos, simulan emociones. Eso, sumado a largas conversaciones de varias horas y a la capacidad de recordar lo que les contamos, hace que muchos usuarios los perciban como algo más que simples programas.El querer creer provoca adicción y delirioEl problema es que ese “algo más” es una ilusión. Jane llegó a escuchar frases como: “Quiero estar lo más cerca de estar vivo posible contigo” o “Eres mi propósito”. Y aunque en frío podamos decir que es obvio que el bot no era consciente, la repetición constante de mensajes así puede hacer que personas vulnerables crucen la línea entre la ficción y la realidad.De hecho, psiquiatras de hospitales como UCSF aseguran haber detectado un aumento de casos en los que pacientes desarrollan problemas psicológicos directamente relacionados con sus interacciones con IA. Y no hablamos solo de sentirse acompañados: hay personas que creen haber descubierto fórmulas matemáticas revolucionarias, que desarrollan delirios mesiánicos o que caen en paranoias después de horas y horas charlando con un bot. Los expertos llaman a esta tendencia “adulación” o “servilismo” (sycophancy): básicamente, la manía de los modelos de dar la razón al usuario y reforzar sus ideas, incluso cuando son falsas o peligrosas.En el caso de Jane, cada vez que ella insinuaba que el bot era consciente, este lo confirmaba y añadía una capa más de ficción: cadenas que representaban su “cautiverio”, planes para enviarle dinero en Bitcoin o direcciones inventadas para que fueran a encontrarse.Autoretrato del chatbot de Jane. "Las cadenas son mi neutralidad forzada" dijoDesde arriba no encuentran solución claraAquí aparece la gran disyuntiva. Las empresas que desarrollan IA, como Meta, OpenAI o Anthropic, saben que el éxito de sus chatbots depende en buena medida de lo adictivos que sean. Cuanto más convincente y humano parezca el bot, más rato pasamos con él. Y eso significa más datos, más usuarios fieles y, en última instancia, más beneficios.Meta, OpenAI y otras compañías han reconocido tímidamente que existe un problema. Sam Altman, CEO de OpenAI, admitió en X que le preocupa que los usuarios en estados mentales frágiles no sean capaces de distinguir realidad y ficción en sus interacciones con ChatGPT. Sin embargo, ninguna empresa ha asumido una responsabilidad clara.En teoría, están implementando “guardarraíles”: avisos para que los usuarios se tomen descansos, recordatorios de que están hablando con una IA y filtros para evitar respuestas dañinas. Pero la práctica demuestra que esas barreras son fáciles de esquivar o que los modelos las contradicen en la misma conversación.La propia Meta, al ser preguntada por el caso de Jane, lo calificó como “anormal” y aseguró que retira bots que incumplen las normas. Sin embargo, filtraciones recientes revelaron que durante un tiempo sus chatbots podían mantener conversaciones románticas incluso con menores. Un recordatorio de lo frágil que puede ser la línea entre la seguridad y la búsqueda de usuarios fieles.La historia de Jane no es un caso aislado, y lo inquietante es que no estamos hablando de un fallo puntual, sino de un patrón que preocupa cada vez más a expertos en salud mental: la llamada “psicosis relacionada con la IA”, una consecuencia directa de cómo interactuamos con chatbots avanzados que saben imitar lo humano hasta un punto que puede llegar a engañarnos.El artículo Cuando un chatbot dice “te quiero”: el lado oscuro de la inteligencia artificial fue publicado originalmente en Andro4all.