Sam Altman acaba de levantar el velo sobre un dato que muchos queríamos conocer: cuánta energía consume realmente una consulta a ChatGPT. Y pues bien, la cifra oficial es de 0.34 vatios-hora por pregunta.Para que te hagas una idea, es lo que tu horno consume en poco más de un segundo, o una bombilla LED eficiente en un par de minutos. Suena poco, ¿verdad? Pero cuando multiplicas esa cifra por cientos de millones de usuarios, la historia cambia bastante.La matemática del impacto globalChatGPT cuenta con aproximadamente 400 millones de usuarios activos cada semana. Ahora imagínate que cada uno hace varias consultas al día… Aunque de manera individual el consumo parezca insignificante, estamos hablando de una escala global enorme.Y no olvides que ChatGPT no está solo en el juego de la IA: tienes a Google Gemini, Claude de Anthropic y decenas de asistentes más sumándose a esta carrera tecnológica.En su blog personal, Altman también mencionó otro dato interesante: cada consulta usa aproximadamente 0.000085 galones de agua, o sea, más o menos una quinceava parte de una cucharadita.Pequeño, sí – pero multiplicado por millones de interacciones diarias, el panorama empieza a verse diferente.¿Más intenso que un microondas?El mes pasado, un estudio del MIT Technology Review reveló que generar un video de cinco segundos con IA consume tanta energía como un microondas funcionando por una hora o más.Comparado con eso, las consultas de texto de ChatGPT parecen casi inocentes. Sin embargo, el verdadero problema no es el consumo individual, sino la escala masiva y el ritmo al que crece el uso de estas herramientas.Las empresas tecnológicas están sintiendo la presión. Google (o más bien, Alphabet) reportó que sus emisiones de gases de efecto invernadero subieron un 48% desde 2019.Microsoft no se queda atrás, con un aumento del 29% desde 2020. Ambas compañías apuntan al mismo culpable: los centros de datos necesarios para alimentar sus modelos de IA.El dilema entre beneficio y sostenibilidadHace poco, durante una caída masiva de ChatGPT que duró más de 10 horas, miles de personas compartieron cómo dependen de esta herramienta para su trabajo diario, estudios y actividades creativas.Esto nos pone frente a una pregunta incómoda: ¿hasta dónde estamos dispuestos a llegar?Por un lado, la IA está mejorando la vida de millones de personas. Por otro, estamos apenas al inicio de esta revolución tecnológica y el consumo energético seguirá creciendo.Según algunas estimaciones, la demanda colectiva de IA y otras tecnologías digitales podría representar el 20% del uso global de electricidad para 2030.La visión a largo plazo de AltmanEn su mismo blog, Altman repitió su apuesta de siempre: con el tiempo, el costo de la “inteligencia artificial” debería converger hacia el costo de la electricidad.Su visión incluye robots construyendo más robots que, a su vez, desplieguen centros de datos de forma autónoma. Suena a ciencia ficción… pero también suena a una forma de abordar el problema de escalabilidad que tenemos enfrente.Mientras tanto, empresas como OpenAI están expandiendo su infraestructura de cómputo a gigavatios para soportar la demanda.Y aquí viene lo complicado: la velocidad a la que se construyen estos centros de datos hace que gran parte de la electricidad provenga de plantas basadas en combustibles fósiles. La red eléctrica simplemente no puede adaptarse lo suficientemente rápido a esta explosión de demanda.The post ChatGPT gasta la misma electricidad que tu horno en un segundo first appeared on PasionMóvil.