Hay frases que se quedan grabadas. Y la que soltó Sam Altman el 20 de febrero en Nueva Delhi es, sin duda, una de esas.Imagínate que alguien te pregunta por qué ChatGPT consume tanta energía… y la respuesta es: «Bueno, tú también gastaste muchísima energía para llegar a donde estás.» Más o menos eso fue lo que dijo el CEO de OpenAI ante cientos de personas en el India AI Impact Summit 2026.¿Provocador? Sí. ¿Interesante? También. ¿Polémico? Absolutamente.El argumento de Altman: los humanos tampoco somos gratisTodo empezó cuando Anant Goenka le preguntó a Altman si era verdad que una sola consulta a ChatGPT consume el equivalente a 1.5 cargas de batería de un iPhone.La respuesta fue tajante: «No hay manera de que sea ni remotamente eso.»Pero Altman fue más allá. Dijo que el debate sobre el consumo energético de la IA suele ser injusto porque compara «cuánta energía se necesita para entrenar un modelo de IA frente a cuánto le cuesta a un humano responder una sola pregunta.»Y ahí lanzó su argumento más llamativo. Según él, entrenar a una persona también tiene un costo energético enorme. «Tardan 20 años de vida y toda la comida que comes durante ese tiempo antes de que te vuelvas inteligente», dijo.Y sumó que detrás de cada individuo están los 100 mil millones de personas que han vivido a lo largo de la historia, aprendiendo a sobrevivir, hacer ciencia y desarrollar conocimiento.Su conclusión fue que, si la comparación se hace justa, con el modelo ya entrenado respondiendo preguntas, «la IA probablemente ya alcanzó al humano en eficiencia energética, medida así.»¿Qué dicen los números reales?Aquí viene la parte interesante. Porque la frase de Altman sonó bien en el escenario, pero en redes sociales varios expertos se pusieron a hacer la matemática.Un ser humano consume alrededor de 2,000 calorías al día. En 20 años, eso equivale a unos 17,000 kWh de energía alimentaria. Entrenar GPT-4 consumió aproximadamente 50,000 MWh de electricidad.Haciendo cuentas rápidas, eso equivaldría a la energía de entrenamiento de unas 3,000 personas. Y GPT-4 ya es historia: OpenAI sigue lanzando modelos nuevos.Por otro lado, también hay datos más tranquilizadores sobre el uso cotidiano. Cada consulta individual a ChatGPT consume alrededor de 0.24 Wh de energía eléctrica, lo que equivale a tener un televisor encendido durante menos de 9 segundos.No es la catástrofe que algunos pintan, aunque tampoco es insignificante si se multiplica por millones de usuarios diarios.El agua: «totalmente falso», según el CEO de OpenAIOtra afirmación que generó ruido fue sobre el consumo de agua en los centros de datos. Altman calificó esas preocupaciones como «totalmente falsas», explicando que antes los servidores usaban enfriamiento evaporativo, y ahí sí se gastaba agua. Pero dijo que eso ya no se hace así.«Ahora ves en internet cosas como ‘no uses ChatGPT, gasta 17 galones de agua por consulta‘ o lo que sea. Eso es completamente falso, una locura, sin conexión con la realidad», fueron sus palabras exactas.Eso sí, reconoció que hay una preocupación legítima: no el consumo por consulta, sino el consumo total. Porque el mundo entero está usando IA de manera masiva, y eso sí suma. Su propuesta fue avanzar rápido hacia energía nuclear, eólica y solar.Centros de datos en el espacio: «ridículo»Hubo otro momento memorable en la conversación. Cuando se habló de la posibilidad de poner centros de datos en el espacio —algo que empresas como SpaceX, de su gran rival Elon Musk, están explorando— Altman no se guardó nada.«Poner centros de datos en el espacio con el panorama actual es ridículo«, dijo. Los costos de lanzamiento y la dificultad de reparar una GPU dañada en órbita hacen que esa idea no sea viable «a escala durante esta década.»Una postura bastante práctica para alguien que trabaja en una de las tecnologías más futuristas del planeta.AGI y superinteligencia: «ya no está tan lejos»Entre temas de energía y agua, Altman también lanzó una bomba: la Inteligencia Artificial General (AGI) —esa versión hipotética de la IA capaz de hacer cualquier tarea humana con más precisión y velocidad— «se siente bastante cercana en este momento.»Y fue más lejos todavía. Según lo que dijo en la cumbre de Nueva Delhi, con la trayectoria actual, podrían estar «a un par de años de las primeras versiones de la verdadera superinteligencia.»Si eso se cumple, para finales de 2028 «la mayor parte de la capacidad intelectual del mundo podría residir dentro de los centros de datos.»Fuente: The GuardianThe post Sam Altman compara el consumo energético de ChatGPT con el de un humano y desata debate global first appeared on PasionMóvil.