Nvidia construyó buena parte del auge moderno de la IA con sus GPU, chips muy versátiles que sirven tanto para entrenar como para ejecutar modelos. Esa versatilidad fue una ventaja cuando el sector necesitaba una herramienta “para todo”. El problema es que la inferencia premia la especialización: baja latencia, alto rendimiento por vatio, buen precio por token y capacidad para mantener conversaciones largas sin que el sistema se ahogue.Con el mercado girando hacia servicios en tiempo real, han crecido los rivales que ofrecen rutas alternativas. Algunos gigantes tecnológicos empujan sus propios aceleradores, como las TPU de Google, mientras que compañías especializadas presumen de chips hechos para “hablar” con modelos de lenguaje de forma más eficiente. Este contexto explica por qué Nvidia, aun estando en una posición de fuerza, está tratando el momento actual como una defensa activa de su liderazgo, no como una simple vuelta de victoria.Groq entra en escena: licencias, talento y una arquitectura pensada para “hablar” rápidoAquí aparece Groq, una empresa conocida por sus LPU (language processing units), chips diseñados para acelerar inferencia con una filosofía distinta a la GPU generalista. La idea, simplificando, es parecida a elegir entre una navaja multiusos y una herramienta específica: la multiusos te salva en casi cualquier situación; la específica gana cuando repites la misma tarea miles de veces al día.A finales de 2025, Groq anunció un acuerdo de licencia no exclusivo con Nvidia para su tecnología de inferencia, junto con la incorporación a Nvidia de parte del equipo directivo y técnico de Groq, incluido su fundador. No se presentó como una compra clásica, sino como una forma de transferir know-how y acelerar el despliegue a escala.En lenguaje llano, Nvidia está reconociendo que, si la nueva fiebre del oro está en “servir” IA al usuario final, conviene sumar un motor especializado que haga esa entrega más rápida y barata.Un sistema híbrido mostrado en GTC 2026: dividir el trabajo para exprimir cada chipEn la keynote de GTC 2026 en San José, Jensen Huang puso el foco en esa transición y en la necesidad de adaptar la infraestructura. Según Reuters, Nvidia presentó un enfoque que separa la inferencia en pasos: un tramo inicial para “preparar” la respuesta y otro para “emitir” la salida token a token, combinando componentes propios con tecnología basada en Groq. La metáfora sería una cocina con dos estaciones: una corta y organiza ingredientes para que la otra emplata a velocidad constante sin cuellos de botella.Varios medios especializados describieron el hardware anunciado como una familia o sistema alrededor de un chip orientado a inferencia, con mención explícita a Groq 3 y su integración con plataformas de Nvidia vinculadas a su hoja de ruta Vera Rubin. También se habló de fabricación por parte de Samsung y de un lanzamiento previsto para la segunda mitad de 2026.Más allá de nombres concretos, el mensaje es claro: Nvidia no intenta que su GPU lo haga todo en solitario. Está construyendo una “pareja de baile” donde cada chip se encarga de lo que mejor sabe hacer, con el objetivo de recortar latencia y coste en servicios que tienen que responder en milisegundos.Competidores y clientes que ya juegan a dos bandasEste movimiento también hay que leerlo como respuesta a una dinámica incómoda: parte de los grandes clientes de Nvidia están explorando alternativas para abaratar la inferencia. En mercados con consumo masivo, una pequeña mejora en coste por respuesta se multiplica por millones de consultas diarias. De ahí que el negocio sea sensible a la eficiencia, no solo a la potencia bruta.La presión viene tanto de competidores directos como de “clientes-competidores” que diseñan chips propios. El Financial Times señalaba el empuje de soluciones de inferencia que evitan depender de memorias de alto ancho de banda más escasas o caras, una preocupación recurrente en centros de datos. También destacaba cómo la demanda empresarial pide soluciones integrables en infraestructuras existentes, no siempre preparadas para cambios radicales de refrigeración o energía.El resultado es una partida donde ya no basta con ser el proveedor dominante de entrenamiento. Hay que demostrar, con números, que ejecutar modelos en producción sigue siendo rentable usando tu ecosistema.El negocio detrás del discurso: el billón de dólares y la presión de la infraestructuraEn GTC 2026, Nvidia elevó sus estimaciones de oportunidad de mercado para hardware de IA, con cifras que apuntan a un horizonte de un billón de dólares en demanda/ventas acumuladas en los próximos años, según Reuters y otros medios. Esta clase de previsiones no se lanzan solo para impresionar; también buscan tranquilizar a inversores y clientes en un momento en que el mercado pregunta por el retorno real de tanto gasto en IA.Hay un factor silencioso que atraviesa todo: la factura energética. La inferencia a gran escala puede convertirse en una “tarifa plana” que no lo es: cada respuesta cuesta electricidad, capacidad de cómputo, memoria y refrigeración. Si la IA se mete en cada producto, desde atención al cliente hasta herramientas internas, el coste operativo deja de ser anecdótico. Por eso Nvidia insiste en eficiencia y en arquitectura de sistema completo, no solo en el chip aislado.Qué cambia para empresas y desarrolladores: menos espera, más contexto, nuevas decisionesPara quien implementa IA, la transición a la inferencia se nota en decisiones prácticas. Los usuarios valoran respuestas rápidas y consistentes, como cuando una app abre al instante frente a otra que se queda pensando con una ruedecita. La promesa de combinar GPUs con chips centrados en inferencia apunta a reducir esa “ruedecita” y a sostener conversaciones largas, con más contexto, sin que el rendimiento se desplome. MarketWatch lo vinculó a la carrera por manejar ventanas de contexto más extensas y a la llegada de sistemas “agentic” que encadenan acciones, llamadas a herramientas y verificación de resultados.Para Nvidia, el desafío es doble. Tiene que mantener su plataforma como opción por defecto y, al mismo tiempo, aceptar que el futuro puede ser híbrido: distintas piezas para distintas fases del trabajo. Para el resto del sector, el mensaje es que la era de la inferencia ya no es un capítulo secundario del boom de la IA: es el capítulo donde se decide quién gana cuando la IA deja de ser demo y se convierte en servicio.La noticia Nvidia se prepara para la era de la inferencia: la nueva batalla por ejecutar IA rápido y barato fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.