Nvidia ha dado un paso llamativo en la carrera por la IA generativa: ha firmado una licencia no exclusiva de propiedad intelectual con Groq, un diseñador de chips centrado en inferencia, y al mismo tiempo ha incorporado a parte del liderazgo técnico de esa empresa. El matiz es clave: según la propia Nvidia, no hay adquisición. La operación se articula como un permiso para usar tecnología de Groq y como un fichaje de talento, sin absorber el negocio completo.La fórmula suena a “me quedo con lo que necesito y evito el resto”. Y, en el contexto actual de la industria, tiene sentido. Comprar una empresa implica heredar líneas de negocio, contratos, riesgos regulatorios y obligaciones operativas. Con una licencia y contrataciones selectivas, Nvidia puede probar, integrar y escalar tecnología con menos fricción y con un perímetro más controlado. Groq, por su parte, comunicó el acuerdo el 24 de diciembre y confirmó que su fundador, Jonathan Ross, su presidente, Sunny Madra, y otros miembros del equipo se unirían a Nvidia para avanzar y ampliar lo licenciado.Por qué la inferencia importa tanto como el entrenamientoDurante años, el foco mediático estuvo en el entrenamiento: el “gimnasio” donde los modelos aprenden a partir de montañas de datos. Ahí es donde las GPU de Nvidia han sido protagonistas. Pero la industria está entrando en otra fase: una vez entrenados los modelos, lo que se dispara es su uso cotidiano. Cada consulta a un asistente, cada resumen, cada traducción o análisis en tiempo real es inferencia: el momento en el que el modelo “responde”.Si el entrenamiento se parece a cocinar un gran caldo base durante horas, la inferencia es servir miles de platos al día con ese caldo. La demanda se vuelve más constante, más sensible a costes y a consumo energético. En ese terreno, chips diseñados específicamente para inferencia ganan atractivo: pueden ser más eficientes y más baratos por respuesta, justo lo que piden empresas que quieren desplegar IA a escala sin que la factura eléctrica o la de infraestructura se dispare.Qué aporta Groq: LPUs y un enfoque distintoGroq se ha posicionado con chips optimizados para inferencia que denomina LPUs (Language Processing Units). La idea de fondo es clara: en lugar de ser una herramienta “todoterreno”, el chip se orienta a un tipo de carga muy concreta. Esto suele traducirse en ventajas de rendimiento por tarea y, sobre todo, en predictibilidad: menor variabilidad al responder y una relación coste/rendimiento pensada para el “servicio” de IA.Groq no solo vende hardware; también alquila capacidad a través de GroqCloud, un servicio de inferencia como servicio. Ese detalle ayuda a entender por qué a Nvidia podría no interesarle comprar la compañía entera: adquirir Groq significaría asumir un negocio de servicios en un momento en el que, según lo reportado en el sector, Nvidia está replanteando su propia oferta de nube con DGX Cloud y su enfoque interno. Con la licencia, Nvidia se concentra en la tecnología de chip sin cargar con una unidad de negocio que no encaje con su estrategia.El cuello de botella silencioso: memoria y cadena de suministroHay otro ingrediente que explica el interés: la presión en la cadena de suministro de hardware para IA. Nvidia ha reconocido en contextos financieros que parte de su oferta está “agotada” o “totalmente utilizada”, reflejo de una demanda que no afloja. En el centro del problema aparece una pieza que no suele llevarse titulares, pero manda: la memoria de alto ancho de banda (HBM).Las GPU más rápidas de Nvidia están pensadas para trabajar con HBM, un tipo de memoria muy veloz y, hoy, cara y limitada por capacidad de fabricación. Cuando la industria entera quiere la misma memoria a la vez, el resultado es el esperado: precios al alza y disponibilidad ajustada. Para muchos compradores empresariales, el problema ya no es “¿qué chip es el mejor?”, sino “¿qué configuración puedo conseguir en un plazo razonable y sin pagar una prima desorbitada?”.Aquí es donde el enfoque de Groq resulta interesante. Sus diseños integran SRAM (memoria estática) en el propio chip. La SRAM suele ser rápida y eficiente, con un comportamiento diferente al de memorias dinámicas usadas en otras arquitecturas. Groq sostiene que esta elección puede reducir consumo y mejorar velocidad en ciertos escenarios de inferencia. Para Nvidia, licenciar esa tecnología abre una puerta estratégica: diversificar dependencia de memorias escasas, explorar nuevas arquitecturas de memoria y, potencialmente, mitigar el “atasco” que crea la HBM en algunos productos.En términos cotidianos, es como una cafetería que descubre que su mayor problema no es la máquina de espresso, sino la falta de vasos. Si encuentra una forma de servir más rápido usando otro tipo de recipiente disponible, puede atender a más clientes sin esperar a que el proveedor de vasos se ponga al día.Antimonopolio y estrategia: ganar velocidad sin levantar banderasLa estructura del acuerdo también tiene una lectura regulatoria. Una compra directa de Groq por parte de Nvidia habría atraído atención inmediata por antimonopolio, especialmente en un mercado donde Nvidia ya ocupa una posición dominante en aceleración para IA. Al optar por una licencia no exclusiva y fichajes, el movimiento puede ser percibido como menos concentrador: no elimina un competidor por completo, no incorpora todo su negocio, no absorbe su servicio en la nube, y deja margen para que esa propiedad intelectual se licencie a otros.Ese “no es una compra” es, en realidad, parte del mensaje. No solo hacia el mercado, sino hacia reguladores y socios industriales. Es una manera de acelerar capacidades y, al mismo tiempo, mantener la operación dentro de un marco más liviano desde el punto de vista de competencia.El factor humano: talento clave que cambia de camisetaJunto a la licencia, Nvidia ha sumado perfiles de alto nivel. En su perfil de LinkedIn, Jonathan Ross figura como chief software architect en Nvidia, mientras Sunny Madra aparece como vicepresidente de hardware. Cuando líderes técnicos de ese calibre se mueven, no se trata solo de “contratar gente buena”; también se incorpora conocimiento profundo de arquitectura, decisiones de diseño y experiencia práctica en llevar chips de inferencia al mercado.Ese tipo de transferencia de talento suele ser tan valiosa como la propiedad intelectual. La IP puede decirte “qué” implementar; el equipo que la creó sabe “cómo” hacerlo para que funcione de verdad, escale y llegue a producción sin sorpresas. Para Nvidia, integrar a esas personas puede acelerar la incorporación de tecnología licenciado y reducir el riesgo típico de “comprar planos y descubrir que faltan piezas”.Qué pasa con Groq a partir de ahoraTras la salida de parte de su cúpula, Groq queda reconfigurada. La gestión pasa a manos de Simon Edwards, que venía de ser CFO en Conga y llevaba apenas unos meses en Groq. Ese cambio dibuja un escenario de transición: la compañía puede reorientar su camino, reforzar su oferta de GroqCloud o buscar nuevas alianzas, mientras Nvidia incorpora parte de su ADN tecnológico.En paralelo, el mercado seguirá intentando descifrar el tamaño real del acuerdo. TechCrunch apuntó que podría valer hasta 20.000 millones de dólares. Ese número, más allá de su precisión, subraya lo que está en juego: la inferencia se ha convertido en la autopista por la que circulará la IA a gran escala, y el peaje se paga en eficiencia, disponibilidad de memoria y capacidad de fabricar.Lo que puede significar para empresas y desarrolladoresPara quienes despliegan IA, este tipo de movimientos suele traducirse en una consecuencia práctica: más opciones de infraestructura. Si Nvidia logra integrar tecnología de Groq para inferencia, podrían aparecer soluciones con perfiles de coste y consumo más atractivos, menos dependientes de cuellos de botella como la HBM. En un mercado que está pasando del “quiero entrenar el modelo más grande” al “quiero servir respuestas fiables a millones de usuarios”, tener alternativas es tan importante como tener potencia bruta.La clave estará en cómo Nvidia aterriza la licencia: si la convierte en productos concretos, si la integra en su ecosistema de software y herramientas, y si logra que esa diversificación de memoria sea real y no solo una promesa. Por ahora, lo confirmado es el movimiento: licencia no exclusiva, talento incorporado, sin adquisición formal, con una lectura estratégica que combina tecnología, cadena de suministro y regulación, tal como han informado medios del grupo Foundry y TechCrunch, junto con pistas visibles en perfiles profesionales como LinkedIn.La noticia Nvidia se apoya en Groq para acelerar la inferencia de IA sin comprar la compañía fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.