La carrera por democratizar el acceso a modelos de inteligencia artificial avanzados ha dado un nuevo paso significativo. OpenAI presentó este miércoles dos nuevos modelos diseñados específicamente para cargas de trabajo de alto volumen: GPT-5.4 mini y GPT-5.4 nano.Ambas versiones heredan gran parte de las capacidades del modelo insignia GPT-5.4, pero optimizadas para ofrecer respuestas más rápidas y a un costo considerablemente menor, lo que abre la puerta a implementaciones masivas en aplicaciones empresariales y de desarrollo.Mejoras sustanciales en rendimiento y velocidadGPT-5.4 mini representa un salto cualitativo importante respecto a su predecesor GPT-5 mini. Las mejoras se extienden a través de múltiples áreas críticas: programación, razonamiento lógico, comprensión multimodal y uso de herramientas especializadas.Cabe destacar que este nuevo modelo opera a una velocidad más del doble que la versión anterior, lo que resulta fundamental para aplicaciones que requieren respuestas en tiempo real.En las pruebas de rendimiento realizadas, GPT-5.4 mini alcanza tasas de éxito comparables a las del modelo completo GPT-5.4, pero con una fracción del costo operativo.Esto lo posiciona como una de las opciones más equilibradas en términos de rendimiento por latencia, especialmente para flujos de trabajo relacionados con desarrollo de software y análisis de código.Por otro lado, GPT-5.4 nano se enfoca en tareas donde la velocidad y el costo son prioritarios: clasificación de datos, extracción de información, ranking de resultados y subtareas de programación más sencillas.Arquitectura diseñada para sistemas multimodeloLa verdadera fortaleza de estos nuevos modelos radica en su capacidad para integrarse en sistemas complejos de múltiples agentes.Los casos de uso están claramente orientados hacia aplicaciones donde la latencia define directamente la experiencia del usuario: asistentes de programación que necesitan sentirse instantáneos, subagentes ejecutando tareas de soporte en paralelo, sistemas de uso de computadora interpretando capturas de pantalla, y aplicaciones multimodales que razonan sobre imágenes en tiempo real.Un ejemplo práctico de esta arquitectura se observa en Codex, donde GPT-5.4 puede encargarse de la planificación y coordinación general, mientras delega tareas más específicas a subagentes GPT-5.4 mini que operan simultáneamente.Estas tareas incluyen búsquedas en bases de código, revisión de archivos y procesamiento de documentos. Según datos de OpenAI, en Codex el modelo mini consume únicamente el 30% de la cuota de GPT-5.4, reduciendo el costo operativo a aproximadamente un tercio del original.Disponibilidad y capacidades técnicasGPT-5.4 mini ya está disponible a través de múltiples canales: la API de OpenAI, Codex y ChatGPT. El modelo soporta entradas de texto e imágenes, uso de herramientas, llamadas a funciones, búsqueda web, búsqueda de archivos, uso de computadora y una ventana de contexto de 400,000 tokens.En ChatGPT, los usuarios de los planes Free y Go pueden acceder a través de la opción «Thinking» en el menú +, mientras que para otros usuarios funciona como respaldo cuando se alcanzan los límites de uso de GPT-5.4 Thinking.GPT-5.4 nano, por su parte, está disponible exclusivamente mediante la API, orientándose a desarrolladores que necesitan integrar capacidades de IA en aplicaciones de alto volumen con restricciones presupuestarias estrictas.Esta estrategia de lanzamiento escalonado permite a OpenAI validar casos de uso específicos antes de una expansión más amplia.Precios competitivos para adopción masivaLa estructura de precios refleja claramente el objetivo de OpenAI de facilitar la adopción masiva. GPT-5.4 mini tiene un costo de $0.75 por millón de tokens de entrada y $4.50 por millón de tokens de salida. GPT-5.4 nano resulta aún más económico, con tarifas de $0.20 y $1.25 por millón de tokens de entrada y salida respectivamente.Estos precios representan una reducción significativa comparados con el modelo completo GPT-5.4, haciendo viable la implementación en aplicaciones que procesan millones de solicitudes diarias.Este lanzamiento se produce apenas semanas después de la presentación de GPT-5.4, que introdujo corrección de curso en medio de respuestas, investigación mejorada en web profunda y razonamiento más sólido en contextos largos. La rápida iteración demuestra el compromiso de OpenAI con la expansión de su ecosistema de modelos especializados.Fuente: OpenAIThe post OpenAI lanza GPT-5.4 mini y nano, velocidad y eficiencia para tareas masivas first appeared on PasionMóvil.