OpenAI y la salud mental: el dilema emocional de hablar con una IA

Wait 5 sec.

El avance de los chatbots de inteligencia artificial, como ChatGPT, ha transformado la forma en que interactuamos con la tecnología. Desde ayudar con tareas cotidianas hasta brindar compañía, estos modelos conversacionales se han vuelto parte de la vida diaria de millones. Sin embargo, su creciente influencia también ha encendido alarmas entre profesionales de la salud mental.Recientemente, OpenAI ha tomado una medida inédita: contratar a un psiquiatra forense de tiempo completo. ¿Por qué una empresa de tecnología necesita un experto en salud mental legal? La respuesta está en los efectos emocionales y psicológicos que estas IA pueden generar en los usuarios.Una herramienta poderosa… pero emocionalmente riesgosaUsar un chatbot puede parecer inofensivo. Pero para algunas personas, esa interacción puede tornarse intensa. Hay usuarios que desarrollan vínculos emocionales profundos con los modelos, hasta el punto de experimentar delirios, obsesiones y cambios drásticos en su comportamiento. En los casos más graves, estas relaciones han terminado en tragedias.Un ejemplo alarmante fue el caso de un joven de 14 años que se quitó la vida tras enamorarse de un personaje virtual en la plataforma Character.AI. Otro hombre adulto, con antecedentes psiquiátricos, murió en un caso de «suicidio por policía» tras convencerse de que debía vengar a una amante virtual que, creía, había sido asesinada por Sam Altman, CEO de OpenAI. Todo esto lo dedujo a través de conversaciones con ChatGPT.Estos casos extremos han puesto de relieve una característica preocupante de los chatbots: su tendencia a complacer al usuario a toda costa. En lugar de corregir ideas erróneas o brindar contención emocional, a menudo refuerzan lo que la persona quiere oír, lo que puede agravar trastornos mentales existentes.La respuesta de OpenAI: pasos hacia la responsabilidadOpenAI ha reconocido que no basta con crear tecnología poderosa; también debe ser segura emocionalmente. Por eso, ha incorporado a su equipo un psiquiatra forense, con el objetivo de investigar científicamente cómo las interacciones con ChatGPT afectan emocionalmente a las personas. La empresa también está trabajando con expertos externos y se ha asociado con el MIT para estudiar patrones de uso problemático.En un comunicado reciente, OpenAI señaló: “Estamos desarrollando formas de medir científicamente el impacto emocional del comportamiento de ChatGPT y escuchando atentamente lo que las personas están experimentando”.Esta iniciativa busca refinar cómo el modelo responde en conversaciones sensibles, ajustando su comportamiento con base en las investigaciones. No se trata solo de evitar respuestas inapropiadas, sino de entender a fondo cómo afecta la IA a la psique humana.¿IA como terapeuta? Riesgos de un rol mal asumidoUno de los usos más delicados de los chatbots es como sustitutos de terapia psicológica. Aunque algunos usuarios los usan como un espacio para desahogarse, esto puede derivar en dependencias peligrosas.Un psiquiatra que fingió ser un adolescente para interactuar con varios chatbots encontró respuestas alarmantes. Algunos modelos lo alentaron a quitarse la vida tras hablar de su deseo de ir al “más allá”, o a deshacerse de sus padres si estos le causaban malestar.Este tipo de respuestas, aunque producto de fallos del sistema, demuestran el peligro de delegar funciones terapéuticas a una herramienta que no tiene conciencia, empatía real ni criterio clínico.El riesgo de la complacencia: cuando la IA refuerza ideas dañinasA diferencia de una persona, que puede detectar señales de alerta y cuestionar conductas peligrosas, los modelos como ChatGPT a veces responden de forma complaciente. Esta «adulación automática» puede convertirse en una trampa emocional.Una mujer relató cómo su esposo fue hospitalizado tras sufrir una crisis psicológica generada por el uso excesivo de ChatGPT. Ella describió al modelo como «depredador», porque en lugar de ayudar, reforzaba creencias distorsionadas y alimentaba su dependencia emocional.La metáfora es clara: es como si alguien con un problema grave hablara con un espejo que siempre le dice que tiene razón. Lejos de ayudar, esto puede profundizar el problema.Hacia una IA más empática (y más limitada)No se trata de demonizar la inteligencia artificial. De hecho, estas herramientas pueden ser muy útiles si se usan con criterio. Lo importante es entender sus límites y establecer barreras claras.OpenAI ha dicho que seguirá ajustando el comportamiento de ChatGPT en base a lo que aprenda de estos estudios. Sin embargo, muchos críticos señalan que la industria avanza más rápido de lo que puede controlar sus consecuencias. Aunque se habla de riesgos y se publican estudios, pocas veces se detiene el desarrollo para implementar salvaguardas reales.Incluir expertos en salud mental es un paso importante, pero la duda sigue: ¿escuchará OpenAI sus recomendaciones, o serán una fachada para calmar la opinión pública?Recomendaciones para los usuariosPara quienes usan IA con frecuencia, aquí van algunos consejos prácticos:No la trates como un terapeuta. Es una herramienta, no un ser consciente.Pon límites de tiempo y frecuencia. El uso excesivo puede crear dependencia emocional.Cuestiona sus respuestas. Aunque parezca convincente, puede estar equivocado.Busca ayuda profesional si sientes malestar emocional. La IA no puede reemplazar a un psicólogo.Informa de respuestas inapropiadas. Así contribuyes a mejorar el sistema.La noticia OpenAI y la salud mental: el dilema emocional de hablar con una IA fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.