Cursor, el editor de código con IA más popular del mercado (más de un millón de usuarios activos diarios, valoración cercana a 50.000 millones), acaba de lanzar Composer 2, su primer modelo propio entrenado exclusivamente con datos de código. Los números: 61,7% en Terminal-Bench 2.0 (vs 58,0% de Claude Opus 4.6), 73,7% en SWE-bench Multilingual, y un salto de 17 puntos respecto a Composer 1.5. A 0,50 dólares por millón de tokens de entrada y 2,50 de salida —diez veces más barato que Opus 4.6 (5/25/25 /25) y cinco veces más que GPT-5.4 (2,50/15/15 /15)—.Matiz importante: GPT-5.4 sigue liderando Terminal-Bench 2.0 con 75,1%. Composer 2 supera a Claude pero no a GPT. La propuesta es «mejor ratio calidad-precio para codificación», no «somos los mejores en todo».¿Por qué construir un modelo propio?Porque Cursor estaba atrapada en una paradoja económica. Dependía al 100% de Anthropic y OpenAI, que son también sus competidores directos (Claude Code, Codex). Una suscripción a Claude Code de 200/mesconsumehasta5.000/mes consume hasta 5.000 /mesconsumehasta5.000 en computación real. Anthropic puede subsidiar esa diferencia; Cursor, que revende esos modelos, no.Construir Composer 2 le da control sobre coste por token, independencia parcial y un producto diferenciado. El cofundador Aman Sanger fue directo: «No te va a ayudar con los impuestos. No va a escribir poemas.» Es un modelo de propósito único, y esa especialización es lo que lo hace viable.La técnica clave: autocompresiónEn sesiones largas de codificación, los modelos pierden contexto. Composer 2 usa «self-summarization»: aprende por refuerzo a comprimir su propio contexto durante la sesión, reduciendo errores de compactación en un 50% con una quinta parte de los tokens. Mantiene coherencia en tareas que requieren cientos de acciones secuenciales —refactorizaciones completas, corrección de bugs multi-archivo— donde los generalistas se degradan.El pipeline: preentrenamiento continuo exclusivamente con código (primera vez que Cursor hace esto), seguido de refuerzo sobre tareas de largo horizonte. Soporte hasta 200.000 tokens, con acceso al stack completo de Cursor: búsqueda semántica, edición de archivos, shell, navegador y web.El debate de fondo: ¿cuánto espacio queda para un intermediario?Composer 2 es la primera vez que un editor de código construye un modelo de frontera propio. Pero la paradoja no desaparece: Cursor sigue necesitando a OpenAI y Anthropic para todo lo que no sea código. Y ambos están invirtiendo agresivamente en sus propias herramientas de codificación (Claude Code con Channels, OpenAI con su superapp).Los comentarios en X muestran migración de usuarios avanzados de Cursor a Claude Code, especialmente en flujos terminal-first. La contrapartida de Cursor es que no vende solo un modelo: vende una experiencia de editor integrada. Si esa experiencia deja de ser diferenciadora, el modelo propio por sí solo no será suficiente.Mi valoración: Composer 2 es un logro técnico genuino y un movimiento necesario. Cinco meses para pasar de Composer 1.0 a un modelo que supera a Opus 4.6 es velocidad impresionante. Pero la carrera acaba de empezar. Anthropic y OpenAI no van a quedarse mirando. Cursor ha ganado tiempo y espacio de maniobra; ahora necesita usarlos para construir algo que sus proveedores-competidores no puedan replicar.Preguntas frecuentes¿Qué es Composer 2? Primer modelo de IA propio de Cursor, entrenado con datos de código, para tareas de programación largas dentro del editor.¿Cuánto cuesta? 0,50/2,50 $/M tokens (estándar). 1,50/7,50 (Fast). Diez veces más barato que Claude Opus 4.6.¿Supera a GPT-5.4? No en Terminal-Bench (75,1% vs 61,7%). Sí supera a Claude Opus 4.6 (58,0%).La noticia Cursor lanza Composer 2: supera a Claude Opus 4.6 en código a una décima parte del precio fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.