Amazon abrió las puertas de su laboratorio de chips Trainium en Austin a TechCrunch, poco después de anunciar un acuerdo de 50.000 millones de dólares con OpenAI. El edificio es anodino desde fuera —»podría pasar por una oficina de seguros regional»—, pero alberga la infraestructura que alimenta a Claude de Anthropic, que pronto soportará los próximos modelos de OpenAI y que Apple también está probando.Los números: 1,4 millones de chips Trainium desplegados en tres generaciones. Claude funciona sobre más de un millón de Trainium2. Project Rainier, uno de los clústers de IA más grandes del mundo (500.000 chips), se activó a finales de 2025 para Anthropic. AWS se ha comprometido a suministrar 2 gigavatios de capacidad Trainium a OpenAI. Y Trainium2 ya gestiona la mayoría del tráfico de inferencia en Amazon Bedrock, el servicio empresarial de IA de AWS.¿Por qué Trainium importa para la industria?Porque es la apuesta más seria contra Nvidia. Trainium no es un chip genérico; está optimizado para entrenar e inferir modelos de lenguaje a escala masiva. La tercera generación (Trainium3) ofrece una mejora de 4× en rendimiento de entrenamiento. Los ingenieros de Anthropic reportaron que migrar su pipeline de entrenamiento a Trainium3 requirió solo tres semanas —muy por debajo de los meses que exigían generaciones anteriores de silicio personalizado—. Si esa experiencia se generaliza, el argumento del lock-in de CUDA (el ecosistema de software de Nvidia) se debilita considerablemente.AWS ha invertido en su SDK Neuron, la capa de software que permite a frameworks como PyTorch y JAX funcionar sobre Trainium con cambios mínimos de código. Es la pieza que convierte a Trainium de un chip prometedor en una alternativa real: sin software compatible, el mejor hardware del mundo es un pisapapeles caro.Amazon también tiene su propio centro de datos privado para pruebas de calidad, separado de los centros de datos de AWS. La seguridad es estricta: dos capas de control de acceso con badge, escáner biométrico, y un sistema de refrigeración tan ruidoso que los tapones de oído son obligatorios. «El aire huele a metal caliente. No es un lugar agradable para estar», escribió la periodista.Lo que no mencionaron durante la visita fue OpenAI. Los ingenieros del laboratorio —que ya están diseñando Trainium4— están centrados en Anthropic y Amazon. En la oficina principal había una pantalla con una cita sobre cómo OpenAI usará Trainium, pero el orgullo era «sutil». La relación con OpenAI es nueva; la relación con Anthropic tiene años de profundidad.Mi valoración: Amazon ha construido en silencio una operación de chips personalizados que ya alimenta al modelo de IA más popular en el segmento empresarial (Claude) y que acaba de firmar al segundo más importante (OpenAI). Que Apple también esté probando Trainium —una empresa obsesionada con controlar su propia cadena de hardware— dice más sobre la madurez del chip que cualquier benchmark. La pregunta no es si Amazon puede fabricar chips competitivos; la visita sugiere que ya lo ha hecho. La pregunta es si suficientes empresas abandonarán Nvidia para que Trainium se convierta en estándar de facto. Los 50.000 millones con OpenAI sugieren que Amazon cree que sí.Preguntas frecuentes¿Qué es Trainium? El chip de IA personalizado de Amazon Web Services, diseñado para entrenamiento e inferencia de modelos de lenguaje a gran escala. Hay 1,4 millones desplegados en tres generaciones.¿Quién usa Trainium? Anthropic (Claude funciona sobre más de 1M de chips Trainium2), Amazon Bedrock, y próximamente OpenAI. Apple también lo está probando.¿Compite con Nvidia? Sí. Trainium ofrece rendimiento optimizado para IA a menor coste que las GPUs de Nvidia, con un SDK (Neuron) que permite compatibilidad con PyTorch y JAX.La noticia Dentro del laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude, OpenAI y Apple fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.