OpenAI ha anunciado una ronda de financiación de 110.000 millones de dólares con participación destacada de Amazon, SoftBank y Nvidia, una operación que sitúa la valoración pre-money en 730.000 millones. La diferencia entre pre-money y post-money ayuda a entender el titular: si a esa valoración previa se le suma el capital nuevo, la cifra resultante ronda los 840.000 millones, según el propio enfoque que han recogido varios medios. No es solo una marca de récord; es una señal de hasta qué punto la carrera de la IA generativa se ha desplazado desde “quién tiene el mejor modelo” hacia “quién puede sostenerlo” con electricidad, chips, centros de datos y acuerdos de nube. OpenAI lo enmarca como una respuesta a una demanda que se está disparando y que exige “capacidad de computación colectiva”.El motor del movimiento: uso masivo y presión de escalaLa justificación de OpenAI se apoya en métricas que retratan una adopción a escala de producto de consumo. La compañía afirma que ChatGPT supera los 900 millones de usuarios activos semanales y que cuenta con más de 50 millones de suscriptores de pago. Si lo piensas como una autopista, el problema deja de ser diseñar un coche rápido y pasa a ser construir carriles, áreas de servicio y estaciones eléctricas para que millones de vehículos no se queden tirados a la vez. Esa metáfora encaja con la otra pata del crecimiento: el ámbito corporativo, donde OpenAI habla de millones de usuarios empresariales usando sus herramientas para productividad y desarrollo. También destaca el tirón de Codex entre programadores, con un crecimiento acelerado en usuarios semanales. Todo esto, traducido al lenguaje de centros de datos, es una factura enorme de computación e inferencia.Amazon no solo pone dinero: quiere “memoria” para aplicaciones y agentesLa aportación de Amazon se comunica como 50.000 millones, con un primer desembolso y tramos condicionados. El matiz importa: este tipo de estructura suele atar la financiación a hitos o compromisos, algo común cuando la infraestructura y los acuerdos comerciales pesan tanto como el capital. La pieza estratégica es el vínculo con Amazon Web Services: OpenAI y AWS han anunciado que co-desarrollarán un Stateful Runtime Environment disponible en Amazon Bedrock. Dicho en cristiano: un entorno de ejecución con “estado”, pensado para que las aplicaciones basadas en modelos puedan mantener contexto y memoria de interacciones previas sin que el desarrollador tenga que montar ese andamiaje desde cero. Es como pasar de un dependiente que olvida tu pedido cada vez que te giras, a uno que recuerda que eres alérgico a los frutos secos y que siempre pides el café con poca leche.“OpenAI Frontier” y la batalla por llevar agentes a producciónJunto al entorno con estado aparece otra idea con ambición empresarial: OpenAI Frontier, descrita como una plataforma para desplegar y gestionar equipos de agentes de IA con controles de seguridad de nivel corporativo. AWS quedaría como proveedor exclusivo de nube de terceros para esa distribución. Esto sugiere una lectura práctica: OpenAI busca que las empresas adopten agentes no como demos sueltas, sino como “plantillas” operables, gobernables y auditables. En el día a día de una compañía, lo difícil no es que un agente responda bien una vez; lo difícil es que lo haga de forma consistente, con permisos correctos, registros, límites y trazabilidad. Que este bloque se ofrezca desde el escaparate de Bedrock acerca la propuesta al comprador típico de cloud: el que ya tiene contratos, cumplimiento normativo y un ecosistema de herramientas en AWS.SoftBank: capital para una maratón, no para un sprintLa presencia de SoftBank en una operación así suele leerse como una apuesta por la escala y el largo plazo, con tolerancia a inversiones gigantescas antes de ver retornos plenamente consolidados. En una industria donde entrenar y servir modelos cuesta miles de millones, el acceso a capital “paciente” se vuelve una ventaja competitiva en sí misma. Aquí, el dinero no solo compra tiempo: compra margen para negociar con proveedores de chips, reservar capacidad futura y asumir ciclos de despliegue que se miden en trimestres y años. También permite defenderse en un mercado donde cada actor grande intenta asegurarse prioridad de suministro, como si estuviéramos en temporada alta y todos quisieran el mismo hotel con vistas al mar: quien reserva antes, elige habitación; quien llega tarde, paga más y acepta lo que queda.Nvidia y los gigavatios: cuando el cuello de botella es la electricidadEl acuerdo con Nvidia destaca por una unidad que rara vez aparece en noticias de software: gigavatios. OpenAI menciona 3 GW de capacidad dedicada para inferencia y 2 GW para entrenamiento en sistemas “Vera Rubin”, sumándose a infraestructura ya apoyada en generaciones anteriores como Hopper o Blackwell. Para ponerlo en perspectiva sin marear con números: un gigavatio es una magnitud propia de ciudades y grandes instalaciones industriales, no de “una startup”. Hablar en GW es reconocer que la IA, en esta fase, se parece tanto a una industria pesada como a un negocio digital. La implicación práctica es doble: reservar hardware de próxima generación y, al mismo tiempo, asegurar energía y centros de datos capaces de alimentarlo.Trainium, precio-rendimiento y el ajedrez de los chipsEn paralelo, Amazon empuja su narrativa alrededor de Trainium, sus chips personalizados para IA, presentándolos como una opción con mejor relación precio-rendimiento frente a GPUs comparables. Para OpenAI, esto abre una vía de diversificación: menos dependencia de un único tipo de acelerador y más margen para optimizar costes según la tarea, algo parecido a no hacer todas las recetas con el mismo cuchillo. Para Amazon, el incentivo es evidente: si consigue que un actor de la talla de OpenAI consuma Trainium a gran escala, valida su plataforma y fortalece el “bloque” de AWS en la guerra de infraestructuras de IA. Aun así, la convivencia de chips especializados y GPUs punteras no se decide por marketing, sino por rendimiento real, facilidad de programación, ecosistema y disponibilidad.Lo que no cambia: Microsoft sigue siendo una pieza claveCon tantos nombres nuevos en el titular, surge la duda natural: ¿qué pasa con Microsoft? OpenAI ha insistido en que sus acuerdos recientes no alteran la relación existente con su socio histórico. Esto encaja con la realidad de una infraestructura híbrida y multialianza: una parte del negocio se apoya en el músculo de partners previos, mientras otra se amplía con rutas alternativas para cubrir demanda, negociar mejores condiciones y evitar cuellos de botella. En términos sencillos, es como tener una compañía de mensajería principal, sumar otra para picos de trabajo y firmar un contrato con un tercero para entregas internacionales: el objetivo es que el paquete llegue siempre, aunque una carretera se corte.Qué mirar desde ahora: condiciones, despliegues y la promesa de la “IA en todas partes”La ronda se ha comunicado como abierta a que entren más inversores, y una parte de la inversión de Amazon está sujeta a condiciones, así que el foco se moverá hacia la letra pequeña: hitos, compromisos de consumo de nube y calendario de disponibilidad real de capacidad. También será relevante observar cómo aterriza el Stateful Runtime Environment en Bedrock y si OpenAI Frontier se convierte en un estándar de facto para agentes empresariales o en una opción más en un mercado cada vez más poblado. La frase de Sam Altman sobre que la IA “estará en todas partes” suena grandilocuente si se queda en eslogan; esta operación, con su énfasis en energía, chips y entornos de producción, apunta a una interpretación más terrenal: “estar en todas partes” significa estar integrado en procesos, productos y decisiones sin que el sistema se caiga cuando lo usan millones.La noticia OpenAI reúne 110.000 millones: la ronda que pone la infraestructura de la IA en el centro del negocio fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.