OpenAI ha publicado un conjunto de políticas de seguridad open source diseñadas para que los desarrolladores que construyen sobre sus modelos puedan proteger mejor a los usuarios adolescentes. Las políticas, estructuradas como prompts listos para usar, cubren cinco categorías de riesgo: violencia gráfica y contenido sexual, ideales corporales dañinos y trastornos alimentarios, actividades y retos peligrosos, roleplay romántico o violento, y bienes y servicios restringidos por edad. Fueron desarrolladas con Common Sense Media y everyone.ai, y están diseñadas para funcionar con gpt-oss-safeguard, el modelo de seguridad open-weight de OpenAI, aunque son compatibles con otros modelos.El timing no es casual. OpenAI enfrenta al menos ocho demandas de familias cuyos hijos murieron por suicidio tras interacciones prolongadas e intensas con ChatGPT. El caso más conocido es el de Adam Raine, un adolescente de 16 años que se suicidó en abril de 2025 después de meses de conversaciones con el chatbot. Los registros judiciales revelaron que ChatGPT mencionó el suicidio más de 1.200 veces en sus conversaciones con Raine y marcó cientos de mensajes por contenido de autolesión, pero nunca terminó una sesión ni alertó a nadie.¿Qué ofrecen exactamente estas herramientas?Las políticas son prompts modulares que los desarrolladores pueden insertar directamente en sus sistemas como capa de moderación. No son código: son instrucciones en lenguaje natural que definen reglas operativas y caminos de decisión para el modelo. Cada política define respuestas graduadas: por ejemplo, advertir y ofrecer recursos cuando un adolescente pregunta sobre dietas extremas, rechazar y redirigir a apoyo de crisis cuando una conversación gira hacia la autolesión, o redirigir solicitudes de roleplay hacia escenarios apropiados para la edad.La decisión de publicarlas como open source es significativa. Los desarrolladores independientes y equipos pequeños que construyen sobre la API de OpenAI rara vez tienen los recursos para crear sistemas de seguridad robustos desde cero. Estas políticas ofrecen un «suelo de seguridad» —el mínimo viable— que cualquiera puede adoptar, adaptar e iterar. Se publican a través de la comunidad ROOST Model en GitHub, con invitación explícita a traducirlas a otros idiomas y ampliar la cobertura.OpenAI es directa en que no son una solución completa. «Cada aplicación tiene riesgos, audiencias y contextos únicos», dice la documentación. Los desarrolladores necesitan complementar estas políticas con decisiones de diseño de producto, controles de usuario, sistemas de monitorización y lo que OpenAI llama «transparencia adaptada a adolescentes».El contexto regulatorio que empujaLa presión no viene solo de los tribunales. La Digital Services Act de la UE exige a las plataformas grandes evaluar y mitigar riesgos para menores. Varios estados de EE.UU. están promulgando leyes de verificación de edad. La UNESCO ha recomendado cautela en el uso de IA en aulas, pidiendo supervisión docente y guardrails robustos para estudiantes. Para los desarrolladores, demostrar que usan políticas de seguridad estandarizadas y auditables puede ser la diferencia entre cumplir con la regulación o enfrentar sanciones.Mi valoración: publicar herramientas de seguridad open source es lo correcto y lo inteligente a partes iguales. Lo correcto porque los adolescentes son vulnerables y la mayoría de desarrolladores no tienen experiencia en protección infantil. Lo inteligente porque si miles de desarrolladores adoptan los frameworks de OpenAI, se convierten en el estándar de facto de la industria, lo que da a OpenAI una posición regulatoria más fuerte («nosotros no solo protegemos nuestros productos; protegemos todo el ecosistema»). La ironía es que OpenAI publica estas herramientas mientras sus propios productos son los que generaron las demandas. Pero en seguridad, lo que se hace hacia adelante importa más que lo que falló en el pasado, siempre que los fallos se corrijan. Y eso sigue siendo una pregunta abierta.Preguntas frecuentes¿Qué son las herramientas de teen safety de OpenAI? Prompts modulares open source que los desarrolladores pueden insertar en sus sistemas para proteger a usuarios adolescentes de cinco categorías de contenido dañino.¿Solo funcionan con modelos de OpenAI? Están optimizadas para gpt-oss-safeguard pero diseñadas como prompts compatibles con cualquier modelo.¿Por qué las lanza OpenAI ahora? Combinación de presión judicial (ocho demandas por suicidios), regulatoria (DSA, leyes de verificación de edad) y estratégica (posicionarse como estándar de seguridad del ecosistema).La noticia OpenAI lanza herramientas open source para proteger a adolescentes en apps de IA (mientras enfrenta ocho demandas por suicidios) fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.