Sam Altman afirma que el consumo de agua y energía de ChatGPT es ínfimo. El problema es que no da pruebas de ello
Un email de 100 palabras generado por GPT-4 consume 519 mililitros de agua. Esa fue la conclusión a la que investigadores de la Universidad de California llegaron hace pocos meses tras analizar este modelo de OpenAI. Sam Altman, CEO de la compañía, acaba de arrojar su propia estimación sobre el consumo de agua y energía de cada consulta de ChatGPT. Y es muy distinta.
1.000 veces menos de lo que se decía. Según Altman, una consulta media en ChatGPT consume mucho menos de lo que se había indicado en estudios previos. Sus datos son llamativos, y para entenderlos hace analogías intersantes:
«A medida que se automatiza la producción en los centros de datos, el coste de la inteligencia debería aproximarse al de la electricidad. (La gente suele tener curiosidad por saber cuánta energía consume una consulta ChatGPT; la consulta media consume unos 0,34 vatios-hora, más o menos lo que consumiría un horno en poco más de un segundo o una bombilla de alta eficiencia en un par de minutos. También utiliza alrededor de 0,000085 galones de agua (0,32 ml); aproximadamente una quinceava parte de una cucharilla)».

Un estudio previo de Epoch AI corrobora el dato que ahora ha esgrimido Sam Altman. Fuente: Epoch AI.
¿Y las pruebas? Esas cifras mencionadas por el CEO de OpenAI tienen un problema: no tienen ningún respaldo visible. Las arroja sin citar fuentes o explicar de dónde se las ha sacado, algo que hace difícil creerle. Un ejecutivo de Meta contestó a la pregunta de cuánto consume la inferencia IA hace año y medio respondiendo que «solo harían falta dos reactores nucleares para cubrirla».
Pero estudios previos coinciden con Altman. Aunque él no menciona ninguna evidencia, en febrero investigadores de Epoch AI precisamente publicaron un estudio tratando de estimar el consumo energético de ChatGPT. En sus conclusiones indicaron que de media una consulta de ChatGPT con GPT-4o consume apenas 0,3 vatios-hora, «diez veces menos que la vieja estimación», que provenía de un informe previo del investigador Alex de Vries. Desde entonces, por supuesto, han pasado muchas cosas.
Demasiado pesimistas. Y es que como comentaban en el estudio de Epoch AI, la diferencia proviene de que los modelos son hoy en día mucho más eficientes que en 2023, cuando de Vries realizó su estudio. También lo es el hardware en el que se ejecutan dichos modelos, y aquella estimación también se usaba una aproximación «especialmente pesimista». En el estudio de OpenAI de hecho también arrojaban una estimación especialmente pesimista y señalaban que «es posible que la mayoría de las peticiones [a ChatGPT] sean mucho más baratas [energéticamente]».
Más estudios. Otro estudio independiente publicado por Andy Masley en enero de 2025 llegaba a una conclusión parecida y afirmaba que «Usar ChatGPT no es malo para el medioambiente». Se basaba en datos de EPRI de mayo de 2024 que estimaban también un consumo elevado de 2,9 Wh por consulta de ChatGPT. El consumo de agua estimado en centros de datos, procedente de un estudio de Sunbird, también era muy modesto en comparación con otras actividades online.

Consumo de agua en centros de datos para diversas actividades online. Fuente: Andy Masley.
Quince consultas por cucharadita de agua. Precisamente el dato del consumo de agua era otro de los llamativos en esa estimación de Sam Altman. Según él, de media una consulta de ChatGPT apenas consumía 0,32 ml de agua, «una quinceava parte de una cucharilla». La cifra sugiere que el agua necesaria para refrigerar los centros de datos que procesan estas peticiones es mucho menor de lo que se pensaba hace tan solo un año.
¿Y el entrenamiento, qué? Esas estimaciones se centran en el apartado de inferencia IA, es decir, el de nuestro uso de ChatGPT que recibe una consulta y la procesa infiriendo (generando) un resultado en texto. Aunque Altman no lo aclara, no parece incluir aquí el coste energético y de agua de entrenar modelos de IA, que es muy elevado y hace que miles de GPUS funcionen a toda potencia durante meses, con el consiguiente gasto de agua en los centros de datos para refrigerar todos esos componentes que disipan cantidades elevadas de calor. Como señalaba el investigador Ethan Mollick, GPT-4 probablemente usó más de 50 GW para ser entrenado, suficiente para dar energía a 5.500 hogares en un año.
Seguimos sin datos definitivos. Las afirmaciones de Altman son como siempre llamativas, pero la falta de pruebas claras hacen que sea difícil creer dichos datos. Otros estudios recientes sí son más útiles a la hora de reflejar ese coste cada vez menor tanto en en energía como en agua del uso de la IA, pero no hay estándares aceptados ni un consenso sobre el verdadero impacto de consumo energético y de agua al usar ChatGPT u otros modelos de IA.
Imagen | Lukáš Lehotský | Village Global
En Xataka | El precio de luz vuelve a estar en negativo: es una señal de que el sistema necesita un rediseño