Ultimas Noticias

Google ha revelado al fin cuánta electricidad y agua consume su IA. Las estimaciones no podían estar más erradas

Sabíamos que la inteligencia artificial generativa era un monstruo que estaba obligando a las compañías a hacer grandes inversiones en energía, pero el primer análisis detallado de Google ha puesto las cifras por primera vez sobre la mesa.

Vamos al grano. Según el informe técnico de Google, basado en datos de mayo de 2025, una consulta de texto promedio a Gemini consume 0,24 vatios-hora de electricidad. Por ponerlo en contexto, es algo así como ver nueve segundos de televisión con una TV convencional de 100 W.

El consumo de agua, que sigue siendo necesaria para refrigerar los servidores, es de 0,26 mililitros por consulta; el equivalente a cinco gotas de agua. La huella de carbono de todo el proceso de inferencia, según el informe, es de 0,03 gramos de CO₂ equivalente.

Estimaciones erradas. Hace apenas un año, los análisis de terceros estimaban que una sola consulta de IA en el buscador de Google, como las de AI Overviews, podrían consumir unos 3 Wh, diez veces más que una búsqueda tradicional. Esto llevó a cálculos tan llamativos como que el despliegue de la IA en el buscador consumiría energía suficiente para cargar siete coches eléctricos por segundo.

Con los datos oficiales de Google en la mano, vemos que aquella estimación estaba equivocada por un factor de 12,5. Las nuevas técnicas de software (como la decodificación especulativa) y las arquitecturas de modelos más eficientes (como el paradigma Mixture-of-Experts) han cambiado por completo el panorama.

Inferencia, no entrenamiento. Estas cifras, las más concretas publicadas hasta la fecha por la compañía, solo tienen en cuenta el consumo de Gemini al inferir la respuesta de los usuarios. El costoso proceso de entrenar los grandes modelos de lenguaje que alimentan estas herramientas sigue siendo un misterio, pero Google se justifica diciendo que la adopción masiva de la IA generativa, integrada incluso en su buscador, ha puesto el foco en la inferencia.

En esta relación directa con el usuario es además donde mayores saltos de eficiencia están consiguiendo las grandes compañías tecnológicas. Google asegura que, en los últimos 12 meses ha dividido por 33 el consumo de energía y por 44 la huella de carbono de cada consulta a Gemini. Gran parte de este salto tiene que ver, no solo con modelos más eficientes, sino con la mejora de los aceleradores de IA (TPUs y GPUs), un hardware que Google desarrolla internamente.

Gráfica del consumo de los diferentes modelos de IA

La cantidad de «prompts» por kWh que procesan los diferentes modelos de IA

Menos que Netflix. Google no está sola en esta nueva era de transparencia. Sam Altman, CEO de OpenAI, también arrojó algo de luz sobre el consumo de ChatGPT. En una publicación de junio de 2025, Altman decía que una consulta promedio a ChatGPT consume aproximadamente 0,34 Wh de energía y unos 0,3 ml de agua.

La cifra de energía es ligeramente superior a la de Gemini, aunque se trata de una comparación difícil. Altman no dio detalles de su metodología, por lo que no sabemos si su cálculo incluye todos los factores que Google ha considerado (como el consumo eléctrico en la refrigeración y en las máquinas en «idle»; es decir, inactivas, pero listas para picos rápidos de consumo).

Ambas compañías se han comparado con la televisión: «Una hora de Netflix consume 100 veces más electricidad que ChatGPT», dice una diapositiva oficial de OpenAI. La misma que dice que el impacto total de la IA en las emisiones de carbono de EE.UU. sería de alrededor del 0.5%.

Imágenes | Google

En Xataka | El consumo de IA está sobreestimado y debemos preocuparnos más por el aire acondicionado, según la IAE

source

Mostrar más
Botón volver arriba