Sora se apaga este 26 de abril: la academia analiza qué demuestra su cierre sobre los límites reales de la IA generativa de vídeo

Wait 5 sec.

OpenAI ha apagado este 26 de abril Sora, su app de generación de vídeo con IA, exactamente seis meses después del lanzamiento de Sora 2 que en septiembre de 2025 había escalado al número uno del App Store y superado el millón de descargas en menos de cinco días. La API quedará operativa hasta el 24 de septiembre de 2026, dando margen a desarrolladores para migrar integraciones. El cierre llega después de que el conteo de usuarios cayera por debajo de 500.000 desde el máximo del primer mes y de que la operación quemara aproximadamente un millón de dólares diarios solo en cómputo. Pero más allá del balance económico, lo que The Conversation y otros análisis académicos están publicando esta semana apunta a una conclusión más amplia: el cierre de Sora es la primera evidencia pública de los límites estructurales de la generación de vídeo con IA en su forma actual.The Wall Street Journal documentó que entre los partidarios del proyecto estuvieron Bob Iger y otros ejecutivos de Disney, que llegaron a comprometer 1.000 millones de dólares en un acuerdo de tres años con licencia de personajes (Disney, Marvel, Pixar, Star Wars) para Sora. Ese acuerdo se canceló junto con el cierre del producto. La velocidad del colapso (de «asociación de mil millones» a «producto descontinuado» en tres meses) es atípica en una industria acostumbrada a anuncios que se mantienen vivos por años aunque sean comercialmente fallidos.Las cuatro causas que la academia ha identificadoLos análisis académicos publicados en The Conversation y la cobertura especializada de MindStudio y otras publicaciones técnicas convergen en cuatro factores que explican por qué Sora no funcionó.Primero, los costes de cómputo no escalaron favorablemente. Generar un clip de vídeo de diez segundos en 1080p consume varios órdenes de magnitud más recursos de GPU que una consulta de texto en ChatGPT, donde una pregunta cuesta fracciones de centavo y un vídeo cuesta varios dólares. La economía solo funciona si el precio de venta cubre el coste, y los usuarios no aceptaban pagar lo necesario para que la operación fuera rentable. OpenAI subsidió Sora con la expectativa de que la escala bajaría el coste unitario, pero la escala no llegó.Segundo, la calidad del output era inconsistente. Las demos cuidadosamente curadas que OpenAI presentó en febrero de 2024 (la escena de Tokio en la nieve, el SUV bajando una montaña) creaban expectativas que el producto en producción no podía cumplir. Cuando un usuario real con un prompt arbitrario intentaba generar el mismo nivel de calidad, los resultados eran frecuentemente inconsistentes: errores en física, anatomía humana extraña, transiciones temporales rotas. La diferencia entre lo demostrado y lo entregable es lo que mata productos.Tercero, las restricciones de seguridad y copyright limitaron lo que los usuarios podían crear. Tras el lanzamiento de Sora 2 en septiembre con un modelo de opt-out (los titulares de derechos tenían que pedir activamente la exclusión), Hollywood reaccionó con fuerza y OpenAI tuvo que dar marcha atrás añadiendo restricciones que materialmente limitaron la capacidad creativa del producto. Sin acceso a personajes y propiedades intelectuales reconocibles, el atractivo viral inicial cayó. La estrategia inicial de Sora 2 con el formato similar a TikTok y la integración de cameos de usuarios era exactamente el modelo que necesitaba IP reconocible para funcionar como red social, y las restricciones forzadas tras la presión de Hollywood erosionaron ese atractivo.Cuarto, la monetización nunca cuajó. ChatGPT Plus a 20 dólares al mes incluía Sora con limitaciones; ChatGPT Pro a 200 dólares al mes daba acceso ampliado. Pero los usuarios que querían generar mucho vídeo se encontraban con que las limitaciones de la suscripción no les permitían suficiente generación, y los que solo querían generar ocasionalmente no veían valor para el precio. La intersección entre quienes querían vídeo IA y quienes estaban dispuestos a pagar lo necesario para que fuera rentable resultó ser demasiado pequeña.Lo que el cierre dice sobre la guerra interna de OpenAIThe Wall Street Journal aportó otro detalle determinante: mientras todo un equipo dentro de OpenAI estaba enfocado en hacer que Sora funcionara, Anthropic ganaba terreno entre los desarrolladores de software y empresas que generan los ingresos reales. Claude Code se estaba comiendo el almuerzo de OpenAI en el segmento empresarial. Sam Altman tomó la decisión de matar Sora, liberar el cómputo asociado y refocalizar recursos en chat y código.La trayectoria económica de OpenAI durante 2025-2026 ha estado marcada por pérdidas proyectadas de 74.000 millones de dólares hacia 2028, frente a Anthropic que apunta al equilibrio en el mismo año, en parte porque Anthropic ha mantenido un perfil operativo más austero y centrado en clientes empresariales con márgenes mejores. En ese contexto, mantener un producto que quema un millón de dólares diarios sin generar retención ni ingresos sostenibles era una decisión cada vez más difícil de defender ante inversores y empleados.El gigante de IP que se queda sin opción favoritaDisney, que había firmado en diciembre el acuerdo de mil millones para licenciar más de 200 personajes a Sora, se quedó sin la inversión y sin la integración. Hollywood Reporter informó que el gigante del entretenimiento tenía planes de integrar la tecnología directamente en Disney+. Esos planes están en pausa hasta que Disney decida con qué proveedor alternativo pivotar, lo que probablemente significa Runway (la herramienta favorita de Hollywood desde antes de Sora) o Veo de Google. La decisión de Disney sobre con quién firmar el acuerdo de reemplazo es uno de los movimientos más vigilados del sector audiovisual en 2026.El ecosistema de alternativas a Sora se ha consolidado durante el último mes, con Veo 3 de Google ofreciendo audio nativo sincronizado y resolución hasta 4K, Runway Gen-4 manteniendo la preferencia de Hollywood con control de cámara y consistencia de personajes, y opciones como Luma Dream Machine y Pika 2.0 para creadores individuales que no necesitan calidad cinematográfica.La lección estructural sobre los límites de la IA generativa de vídeoLa conclusión que la academia está articulando va más allá del caso Sora. La generación de vídeo con IA, en su estado actual, presenta una combinación de problemas que ningún otro segmento de IA generativa enfrenta simultáneamente. Costes de inferencia de uno a dos órdenes de magnitud superiores al texto. Output que el usuario percibe como «casi correcto pero raro» en una proporción mayor que con imágenes. Riesgo de copyright complicado por el alcance del entrenamiento (literalmente cualquier vídeo de internet es candidato a haber sido visto durante el entrenamiento). Y un mercado de uso final donde el usuario tiene alternativas baratas y bien establecidas: filmar el vídeo, contratar a alguien que lo haga, usar metraje de archivo.Esa combinación es lo que diferencia el caso de la IA generativa de vídeo del éxito de la IA de texto. Para texto, escribir manualmente una alternativa de calidad equivalente toma horas. Para vídeo, grabar manualmente una alternativa de calidad equivalente toma menos tiempo si tienes el equipo, y el resultado es plausiblemente más útil para muchos casos de uso. La IA generativa de vídeo solo gana cuando el usuario necesita algo que no se puede grabar (escenarios fantásticos, animaciones imposibles, simulaciones), y ese caso de uso es nicho.Mi valoraciónSora pasará a la historia como el primer producto frontier de IA con etiqueta «fracaso de mercado» en sentido inequívoco. No fue una herramienta cancelada por errores técnicos; fue una herramienta cancelada porque el modelo de negocio no funcionaba con la calidad técnica que tenía. La distinción importa. Si Sora hubiera fracasado por bugs o por mal lanzamiento, OpenAI habría iterado. Cancelar significa que la conclusión interna fue: incluso con todas las mejoras técnicas que podemos imaginar a corto plazo, este producto no va a ser rentable. Esa es una declaración fuerte sobre el estado del arte. La pregunta interesante para los próximos años es si la academia tiene razón al identificar problemas estructurales o si simplemente Sora llegó demasiado pronto. Hay argumentos para ambas posiciones. A favor de los problemas estructurales: los costes de inferencia de vídeo no van a bajar tan rápido como los de texto porque la complejidad computacional escala con el número de píxeles y frames, no con tokens lineales. A favor de «demasiado pronto»: Veo 3 de Google ya ofrece audio nativo y mejor consistencia, lo que sugiere que la curva de mejora técnica sigue subiendo. Probablemente la verdad esté en el medio: la generación de vídeo con IA va a ser un mercado real, pero más pequeño y más profesional de lo que el lanzamiento de Sora había prometido. Para creadores y estudios, la lección práctica es la diversificación que el ecosistema open source siempre ha defendido. Construir tu workflow creativo sobre una sola plataforma propietaria es asumir que esa plataforma no va a desaparecer en seis meses, y Sora demuestra que sí puede pasar. Las herramientas open source (LTX, modelos derivados de Stable Video Diffusion) tienen calidad inferior a la frontier comercial, pero ofrecen continuidad que ninguna empresa garantiza. La pieza que merece más atención académica no es la tecnológica, es la regulatoria. El opt-out de Sora 2 (que forzaba a Disney y a otros titulares de derechos a pedir activamente la exclusión) es una arquitectura que va a ser rechazada por tribunales europeos y probablemente estadounidenses. Para que la generación de vídeo con IA sea sostenible legalmente, el modelo va a tener que ser opt-in (autorización explícita de cada titular) o entrenamiento exclusivo en datos con licencia clara. Cualquiera de las dos opciones encarece estructuralmente el desarrollo, y esa es probablemente la limitación a largo plazo que va a definir qué empresas pueden permitirse competir en este espacio.Preguntas frecuentes¿Puedo recuperar los vídeos que generé en Sora? Sí, pero solo hasta el 26 de abril. OpenAI ha permitido exportar el contenido vía sora.chatgpt.com/exports/me. Después de esa fecha, los datos asociados se borrarán permanentemente.¿Qué pasa con la API de Sora? Sigue operativa hasta el 24 de septiembre de 2026, dando a desarrolladores cinco meses para migrar a alternativas como Veo 3 de Google, Runway Gen-4 o Luma Dream Machine.¿Volverá OpenAI al vídeo IA en algún momento? El equipo de investigación de Sora se ha redirigido a «world simulation» para robótica e IA física, según comunicación de OpenAI. La generación de vídeo como producto de consumo ha quedado descartada en el horizonte previsible.La noticia Sora se apaga este 26 de abril: la academia analiza qué demuestra su cierre sobre los límites reales de la IA generativa de vídeo fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.