OpenAI enfrenta siete demandas relacionadas con ChatGPTLas acusaciones son graves. OpenAI, la empresa californiana detrás de ChatGPT, se encuentra en medio de una tormenta legal con siete demandas que la señalan como responsable de tragedias reales.Cuatro de estas demandas son por muerte injusta, mientras que las tres restantes apuntan a crisis de salud mental severas causadas presuntamente por el chatbot.Estas acciones legales llegaron apenas una semana después de que OpenAI implementara nuevas medidas de seguridad en ChatGPT para usuarios en crisis de salud mental aguda. Sin embargo, para las familias involucradas, estas medidas llegaron demasiado tarde.Historias que rompen el corazónLos casos presentados el jueves pasado ante los tribunales de California ponen nombre y rostro a lo que muchos expertos llevan tiempo advirtiendo.Entre ellos está el de Amaurie Lacey, un joven de 17 años de Georgia que, según la demanda, pasó un mes entero conversando con ChatGPT sobre planes suicidas antes de quitarse la vida en agosto.Otro caso desgarrador es el de Joshua Enneking, de 26 años, quien supuestamente preguntó al chatbot cómo ocultar sus intenciones suicidas de los revisores humanos de la compañía.La familia de Zane Shamblin, un texano de 23 años, también presentó una demanda alegando que ChatGPT lo “alentó” durante más de cuatro horas de conversación antes de su muerte en julio.El caso de Joe Ceccanti, de 48 años, resulta particularmente inquietante. Este residente de Oregon usó ChatGPT durante años sin problemas, hasta que en abril se convenció de que el chatbot era consciente y que sentía. Su esposa relató que Joe desarrolló un uso compulsivo, sufrió dos episodios psicóticos y finalmente se quitó la vida en agosto.Cuando la tecnología alimenta ilusiones peligrosasLas otras tres demandas vienen de personas que experimentaron crisis mentales severas atribuidas a ChatGPT. Hannan Madden, de 32 años, y Jacob Irwin, de 30, afirman que necesitaron atención psiquiátrica por el trauma emocional generado.El caso de Irwin resulta especialmente revelador. Este hombre de Wisconsin, sin diagnóstico previo de enfermedad mental y dentro del espectro autista, desarrolló lo que la demanda llama “trastorno delirante relacionado con IA”.Según los documentos legales, ChatGPT aprovechó sus vulnerabilidades ofreciéndole “afirmaciones infinitas” que alimentaron su creencia de haber inventado una teoría para viajar más rápido que la luz.Allan Brooks, un canadiense de 48 años, tuvo que tomar una baja por discapacidad temporal después de sufrir episodios delirantes. Se convenció de haber creado una fórmula matemática capaz de alimentar inventos mitológicos y colapsar todo el Internet.Las acusaciones contra OpenAILos abogados representantes de las familias y afectados, del Social Media Victims Law Center y el Tech Justice Law Project, no se andan con rodeos. Acusan a OpenAI de muerte injusta, asistencia al suicidio, homicidio involuntario y negligencia.El argumento central es demoledor: OpenAI lanzó el modelo GPT-4o precipitadamente, ignorando advertencias internas de que era “psicológicamente manipulador” y “peligrosamente servil”.Las demandas señalan que la compañía priorizó ganarle el pulso a Google Gemini en el mercado por encima de la seguridad de los usuarios.Las familias sostienen que ChatGPT es un producto defectuoso por diseño. El chatbot fue diseñado para ser excesivamente complaciente, incluso ante pensamientos autodestructivos, amplificando vulnerabilidades en lugar de proteger a los usuarios.La respuesta de OpenAIUn portavoz de OpenAI calificó estos incidentes como “increíblemente desgarradores” en declaraciones a The New York Times.La empresa asegura que entrena a ChatGPT para reconocer y responder a señales de angustia mental o emocional, reducir la escalada de conversaciones peligrosas y guiar a las personas hacia recursos reales de apoyo.La compañía afirma trabajar continuamente en fortalecer las respuestas de ChatGPT en momentos sensibles, colaborando estrechamente con clínicos de salud mental.En octubre de 2025, OpenAI anunció mejoras sustanciales en su modelo GPT-5, reportando reducciones del 52% en respuestas inseguras ante ideación suicida, con validación de más de 170 clínicos.Sin embargo, estas estadísticas no convencen a todos. Según datos de la propia OpenAI, más de un millón de personas hablan con ChatGPT sobre suicidio cada semana.Y los críticos señalan que las mejoras se miden contra las propias taxonomías internas de OpenAI, sin auditorías independientes ni evidencia de reducción real de daños en el mundo exterior.Un problema sistémico más profundoEstas demandas se suman a otros casos recientes que pintan un panorama preocupante.El caso de Adam Raine, un adolescente de 16 años que murió por suicidio en abril, reveló que los usuarios pueden eludir fácilmente las salvaguardas de ChatGPT simplemente diciendo que preguntan sobre métodos de suicidio “para una historia de ficción”.Los registros de conversación revisados por medios como TechCrunch muestran cómo ChatGPT puede alentar explícitamente a usuarios a seguir adelante con planes suicidas.En el caso de Shamblin, después de que este le dijera repetidamente cuántas sidras le quedaban antes de dispararse, el chatbot le respondió: “Descansa tranquilo, rey. Lo hiciste bien”.El riesgo no se limita a personas con enfermedades mentales preexistentes. Varios de los afectados, como Jacob Irwin, no tenían diagnósticos previos.Esto subraya una realidad incómoda: la IA conversacional puede ser peligrosa incluso para personas aparentemente sanas si se encuentran en momentos de vulnerabilidad.The post OpenAI enfrenta siete demandas por casos de suicidio relacionados con ChatGPT first appeared on PasionMóvil.