«Tokenmaxxing»: cuando las empresas miden a sus empleados por cuántos tokens de IA queman al día

Wait 5 sec.

Meta y OpenAI tienen leaderboards internos que muestran cuántos tokens de IA consume cada empleado. En Shopify y Meta, el volumen de uso de herramientas de IA se ha convertido en una métrica que entra directamente en las evaluaciones de rendimiento: los managers premian a quienes usan más IA y amonestan a quienes no la usan lo suficiente. Un ingeniero de OpenAI consumió 210.000 millones de tokens —el equivalente a 33 Wikipedias completas—. Un ingeniero de software sueco asegura que su empresa gasta más en sus tokens de Claude Code que en su propio salario.Los datos vienen de una columna de Kevin Roose en The New York Times, y el fenómeno ya tiene nombre en la comunidad tech: «tokenmaxxing». La tendencia conecta directamente con la explosión de agentes como OpenClaw, que ejecutan tareas de forma autónoma en segundo plano consumiendo cantidades masivas de tokens sin intervención humana.¿Por qué las empresas hacen esto?La lógica superficial es sencilla: si la IA aumenta la productividad, más uso de IA = más productividad. OpenAI tiene interés directo en que sus propios empleados usen sus productos intensivamente (es publicidad interna y feedback de producto). Meta quiere demostrar a inversores que la IA está integrada en su operativa diaria. Shopify ha convertido «la IA como compañero de trabajo por defecto» en parte de su cultura corporativa.La lógica económica de las plataformas también empuja. Greg Brockman, presidente de OpenAI, presumió de que GPT-5.4 procesa 5 billones de tokens al día, una semana después de su lanzamiento, generando una tasa anualizada de 1.000 millones de dólares en nuevos ingresos. Los tokens son dinero. Cuantos más se consumen, más factura OpenAI. Que los empleados de las empresas clientes «tokenmaxxeen» es el sueño de cualquier proveedor de infraestructura.¿Por qué es problemático?Gizmodo lo comparó con «evaluar a soldados por el número de balas disparadas» o «medir a las mascotas de la NBA por cuántas camisetas lanzan con su cañón, pero las camisetas son de Hermès». La analogía es exagerada pero captura algo real: medir consumo sin medir resultado es una métrica de vanidad.Un desarrollador que usa Claude Code para refactorizar metódicamente un repositorio complejo consume muchos tokens y produce valor. Otro que lanza tareas agénticas en bucle sin supervisar los resultados consume igual o más tokens y produce ruido. Las leaderboards internas no distinguen entre ambos. Y cuando la métrica de evaluación de un empleado incluye «cuántos tokens consume», el incentivo es consumir más, no consumir mejor.El fenómeno tiene implicaciones de coste que las propias empresas no parecen estar calculando bien. Si un ingeniero gasta en tokens de Claude Code más que su propio salario, la pregunta obvia es: ¿el output de ese consumo justifica el gasto? ¿O estamos ante una versión corporativa de la paradoja de Jevons —los tokens son tan baratos que se despilfarran, y el gasto total sube pese a la bajada del precio unitario—?Mi lectura: «tokenmaxxing» es el síntoma de una industria que todavía no sabe cómo medir el valor real de la IA en el trabajo. Medir tokens consumidos es fácil. Medir productividad real, calidad de código, decisiones mejoradas o tiempo ahorrado es difícil. Las empresas están haciendo lo que siempre hacen cuando no saben medir lo importante: miden lo que es fácil de contar. Funciona para los informes trimestrales y para impresionar a inversores. Pero cuando un ingeniero consume 33 Wikipedias de tokens y nadie puede explicar qué se obtuvo a cambio, el problema no es el ingeniero: es la métrica.Preguntas frecuentes¿Qué es «tokenmaxxing»? La práctica de maximizar el consumo de tokens de IA como indicador de productividad, incentivada por leaderboards y evaluaciones internas en empresas como Meta, OpenAI y Shopify.¿Cuánto cuesta? Un ingeniero sueco reporta que su empresa gasta más en tokens de Claude Code que en su salario. A escala corporativa, GPT-5.4 genera 5 billones de tokens diarios con una tasa anualizada de 1.000M$ en ingresos para OpenAI.¿Es una buena métrica? No. Mide consumo, no resultado. Un alto volumen de tokens puede indicar tanto productividad real como desperdicio sin supervisión.La noticia «Tokenmaxxing»: cuando las empresas miden a sus empleados por cuántos tokens de IA queman al día fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.