OpenAI ha presentado GPT-5.4 mini y GPT-5.4 nano como versiones más ligeras de GPT-5.4, pensadas para escenarios donde el tiempo de respuesta y el coste pesan tanto como la calidad. La idea se entiende bien con una metáfora doméstica: no siempre necesitas un chef con estrella Michelin para picar verduras; a veces te basta con un buen cuchillo y un ritmo constante para que la cocina no se atasque. Con estos modelos ocurre algo parecido: se busca mantener buena parte de las capacidades del “modelo grande”, pero con una ejecución más ágil y barata.La novedad no es solo que existan versiones “mini” y “nano”. Lo relevante es dónde se colocan en el producto y cómo se posicionan: OpenAI insiste en que están optimizados para código, razonamiento, comprensión multimodal y uso de herramientas, con mejoras claras frente a los modelos pequeños anteriores. La información procede tanto del anuncio de OpenAI como de lo publicado por Engadget, que destaca especialmente el impacto para usuarios no de pago.GPT-5.4 mini en ChatGPT: el salto visible para Free y GoEl movimiento más llamativo está en ChatGPT. Según Engadget, GPT-5.4 mini se habilita para usuarios Free y Go a través de la opción “Thinking” dentro del menú “+”. En la práctica, esto abre una puerta a un modelo más capaz sin pasar por suscripción, algo que suele marcar la diferencia entre usar ChatGPT para dudas rápidas o apoyarse en él para tareas algo más exigentes, como revisar un texto largo, interpretar una imagen con contexto o resolver un problema paso a paso con menos tropiezos.Para quienes sí pagan, el encaje es distinto: OpenAI lo describe como el modelo de respaldo cuando se alcanza el límite de uso de GPT-5.4 en modo “Thinking”. Traducido a experiencia diaria, se parece a cuando tu servicio de streaming baja automáticamente la calidad del vídeo para que no se corte: el objetivo es que la sesión continúe con una alternativa que mantiene buen nivel sin dejarte tirado.OpenAI también subraya un punto que suele importar más de lo que parece: GPT-5.4 mini corre más de dos veces más rápido que su predecesor “mini”. Esto, en conversaciones reales, se nota como menos espera y más iteración: pedir, ajustar, volver a pedir. En tareas de programación o edición, esa cadencia es casi tan importante como la respuesta final.Rendimiento: cerca del “hermano mayor” en pruebas conocidasCuando una empresa habla de “mejoras” conviene mirar dónde lo mide. OpenAI afirma que GPT-5.4 mini se acerca al rendimiento de GPT-5.4 en evaluaciones como SWE-Bench Pro y OSWorld-Verified, dos referencias que suelen usarse para comparar capacidad de resolución en entornos de software y tareas de “uso de ordenador”. En los datos compartidos por OpenAI, SWE-Bench Pro (Public) aparece con 57,7% para GPT-5.4, 54,4% para GPT-5.4 mini, 52,4% para GPT-5.4 nano y 45,7% para GPT-5 mini. En OSWorld-Verified, el salto también es llamativo: 75,0% en GPT-5.4 frente a 72,1% en GPT-5.4 mini.En lectura sencilla: el modelo “mini” no es un recorte sin más, sino un equilibrio. Si el modelo grande es una furgoneta con mucha capacidad de carga, el mini intenta ser un turismo rápido que sigue llevando suficiente equipaje para tareas serias. Para usuarios que trabajan con prompts iterativos, ese equilibrio suele ser el punto dulce.Multimodal y herramientas: menos “texto puro”, más contexto realUna de las mejoras que se repite en el anuncio es la comprensión multimodal. OpenAI indica que GPT-5.4 mini admite entradas de texto e imagen en la API, y lo vincula a experiencias como interpretar capturas de pantalla de interfaces densas. Si lo has vivido, sabes el dolor: abrir una captura de una configuración, intentar explicar dónde está un botón, describir un error visual. Un modelo que entiende mejor esa imagen funciona como alguien que mira la pantalla contigo, no como quien solo escucha una descripción por teléfono.El otro pilar es el uso de herramientas. OpenAI lo expresa en términos de tool use, function calling, web search, file search y hasta computer use dentro de su plataforma. En lenguaje cotidiano, significa que el modelo no solo “responde”, sino que puede integrarse mejor en flujos donde hay que consultar, ejecutar, extraer o coordinar pasos, con menos confusiones sobre qué herramienta toca y cuándo.“Subagentes”: el truco de repartir trabajo para ganar velocidad y costeOpenAI dedica parte del anuncio a una estrategia que se está volviendo estándar: combinar modelos de distintos tamaños en un mismo sistema. La empresa describe que un modelo grande puede encargarse de planificar y tomar decisiones finales, mientras GPT-5.4 mini actúa como subagente para subtareas en paralelo, como revisar un archivo grande, buscar dentro de un repositorio o procesar documentación.La metáfora aquí es la de un director de obra: no coloca ladrillos, coordina. Los albañiles especializados hacen tareas concretas rápido y en paralelo. En software, este enfoque suele mejorar el coste total y la sensación de fluidez, porque no pagas “cerebro grande” para trabajos mecánicos o repetitivos. En productos orientados a empresas, ese matiz puede ser decisivo.GPT-5.4 nano: el modelo “barato y veloz” para lo rutinarioSi mini es “rápido pero capaz”, nano apunta a “rapidísimo y económico”. OpenAI lo recomienda para clasificación, extracción de datos, ranking y subagentes de tareas sencillas, donde lo importante es mover mucho volumen con coste controlado. Un ejemplo práctico: procesar miles de tickets de soporte para etiquetarlos, extraer campos de facturas, ordenar resultados por relevancia o revisar patrones simples en logs.Hay un detalle clave para el público general: GPT-5.4 nano no aparece en ChatGPT. Está disponible solo vía API, orientado a desarrolladores que construyen productos o automatizaciones. Engadget destaca también su enfoque en coste, con un precio de entrada que OpenAI fija en 0,20 dólares por millón de tokens de entrada.Precios y contexto: lo que importa a quien integra la APIEn el apartado de disponibilidad, OpenAI concreta cifras que ayudan a aterrizar expectativas. GPT-5.4 mini está disponible en API, Codex y ChatGPT, y en la API ofrece una ventana de contexto de 400k tokens, un dato notable para trabajar con documentos largos, repositorios o historiales extensos sin partirlo todo en trozos. En coste, OpenAI indica 0,75 dólares por 1M tokens de entrada y 4,50 dólares por 1M tokens de salida para GPT-5.4 mini.Para GPT-5.4 nano, OpenAI marca 0,20 dólares por 1M tokens de entrada y 1,25 dólares por 1M tokens de salida. La lectura es clara: nano está pensado para tareas de alto volumen donde la factura manda, mientras mini busca un balance más ambicioso entre calidad y rapidez.Qué significa esto para el usuario: respuestas más ágiles y menos fricciónPara quien usa ChatGPT en el día a día, el cambio más tangible es tener acceso a GPT-5.4 mini incluso sin pagar, siempre que use el modo “Thinking” cuando esté disponible. En tareas como entender una captura, hilar una explicación técnica, depurar un fragmento de código o seguir instrucciones con pasos encadenados, las mejoras en razonamiento, multimodalidad y herramientas suelen traducirse en menos “¿cómo?” y más “vale, ahora sí”.Para equipos y desarrolladores, el anuncio apunta a una tendencia: construir sistemas como una caja de herramientas, no como un único martillo. Un modelo grande para decisiones complejas y modelos pequeños para tareas repetibles puede hacer que productos con IA se sientan más rápidos, más estables y más rentables, que al final es lo que termina notando el usuario, aunque nunca vea el nombre del modelo.La noticia GPT-5.4 mini y nano llegan a ChatGPT y a la API: lo que cambia cuando “pequeño” significa más rápido fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.