En este momento estás viendo Todos vamos a tener que pagar las facturas de luz descomunales de la IA
Aunque nunca lo uses, lo estarás pagando debido al insaciable consumo eléctrico de los centros de datos.

Todos vamos a tener que pagar las facturas de luz descomunales de la IA

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:noviembre 6, 2025

Cuando era un programador novato que ejecutaba sus programas en un HP 3000, una computadora central más lenta que una Raspberry Pi Zero W, mi máquina consumía unos 50 kilovatios (kW). Pensaba que era mucha energía. No tenía ni idea de lo que me esperaba.

Actualmente, un gran centro de datos dedicado a la IA suele requerir 100 megavatios (MW). Esto equivale aproximadamente al consumo energético de 100.000 hogares. Es una cantidad considerable, pero no mucho mayor que la de un centro de datos hiperescalable típico. Sin embargo, ya existen numerosos centros de datos de IA. Según el último recuento, contamos con 746 centros de datos de IA .

¿Crees que eso es mucho?. No es nada comparado con adónde vamos.

Parece ser que los centros de datos preparados para la IA crecerán a una tasa de crecimiento anual compuesta (CAGR) del 33 por ciento anual entre hoy y 2030. Eso supone muchísimos más centros de datos, lo que, a su vez, significa muchísimo más consumo de energía.

¿Por qué?. Pues bien, la IA consume tanta energía porque el entrenamiento y el funcionamiento de los modelos modernos, especialmente la IA generativa, requieren recursos computacionales extremadamente intensivos y enormes cantidades de datos procesados ​​en paralelo en grandes clústeres de GPU y TPU de alto rendimiento.

Por ejemplo, la fase de entrenamiento de un modelo de IA de última generación requiere el ajuste repetido de miles de millones o billones de parámetros. Solo este proceso exige miles de GPU funcionando simultáneamente durante semanas o meses. Para colmo, cada uno de estos chips de IA consume mucha más energía que una CPU convencional.

Pero una vez finalizado el entrenamiento, no consume tanta energía, ¿verdad?. Pues sí. Si bien las empresas de IA son sorprendentemente reservadas sobre cuánta energía se consume al pedirle a ChatGPT que cuente un chiste de «toc toc», que genere una imagen de David Tennant como el Doctor Who o que cree un vídeo de diez segundos de los personajes de Star Trek: Lower Decks contándole un chiste de «toc toc» al Doctor Who, sabemos que responder incluso a preguntas sencillas y no triviales requiere mucha energía.

Ya sea para aprender o para responder preguntas, estos chips de IA se calientan muchísimo. Los chips de IA comunes funcionan a entre 70°C y 85°C (entre 158°F y 185°F para los que no vivimos en Europa). ¡Y tú quejándote de tu GeForce RTX 5090!.

En la práctica, eso significa que hasta el 20 por ciento del consumo energético de un centro de datos de IA se destina simplemente a evitar que las placas se fundan.

En conjunto, los grandes centros de datos de IA de última generación actuales se acercan a los 500 MW, e incluso los superan en algunos casos, y los centros de próxima generación en fase de planificación apuntan a los 2 gigavatios (GW). El Consejo Estadounidense para una Economía Energéticamente Eficiente (ACEEE), una organización sin ánimo de lucro, estima que estos centros de datos consumirán «casi el 9% de la demanda total de la red eléctrica de EE.UU. para 2030».

Pero eso no es nada comparado con lo que está por venir.

Tomemos como ejemplo a OpenAI. Para que OpenAI pueda llevar a cabo sus ambiciosos planes de centros de datos, necesita un mínimo de 16 gigavatios (GW) de potencia continua. Eso equivale a casi la demanda total de electricidad de países como Suiza o Portugal. Tan solo el proyecto Stargate de OpenAI requiere 10 gigavatios (GW) de capacidad de centros de datos en varias fases en Estados Unidos para 2029. En palabras del CEO de Nvidia, Jensen Huang: «Este es un proyecto gigantesco». ¿Te lo imaginas?.

Pero por muy ambiciosos que sean los planes de OpenAI, las demás potencias emergentes en IA también están impulsando proyectos igualmente ambiciosos. Amazon, por ejemplo, en colaboración con Anthropic, está desarrollando el Proyecto Rainier. Su clúster inicial de centros de datos en Indiana consumirá 2,2 GW.

Microsoft afirma que su clúster Fairwater en Mount Pleasant, Wisconsin, que ya sufrió un fiasco tecnológico con Foxconn, será el mayor centro de datos de IA de su tipo . El presidente de Microsoft, Brad Smith, asegura con vehemencia que construirá una planta solar de 250 MW, que compensará cada kilovatio-hora que consume de combustibles fósiles. El grupo Clean Wisconsin cree que Fairwater necesitará cerca de 2 GW. Me fío de sus cifras, no de las de Microsoft.

O sea, Microsoft también es la empresa que planea reactivar los reactores nucleares de Three Mile Island. ¿Te acuerdas de Three Mile Island?. Yo sí. No, gracias. Además, incluso cuando estaban en pleno funcionamiento, esos reactores solo tenían una capacidad de generación de 837 MW .

Solo por curiosidad, hice un cálculo aproximado de qué tamaño debería tener una planta solar para generar un solo TW de energía. Con la tecnología solar actual, se estima que se necesitan cinco acres o 0,020 kilometros cuadrados de paneles solares para generar un MW. Por lo tanto, un TW, un millón de MW, requeriría cinco millones de acres, o 7.812 millas cuadradas o 20.230 kilómetros cuadrados. Claro, eso es inviable, especialmente con una tormenta de nieve en Wisconsin en diciembre.

La verdad es simple: los planes de las empresas de IA son pura fantasía. Es imposible que las compañías eléctricas suministren la energía suficiente para alimentar estos megacentros de datos. Incluso el Departamento de Energía de Trump, un firme defensor de la energía nuclear, admite que se necesitan años para poner en marcha nuevos reactores nucleares.

¿Carbón?. ¿Energía hidroeléctrica?. ¿Gas?. Por favor. Como bien dice Deloitte: «Pocos recursos energéticos se ajustan a los plazos de los centros de datos». Si podemos esperar hasta 2040, quizá tengamos suficiente energía para hacer realidad todos estos sueños utópicos de la IA. Quizá.

Las compañías de servicios públicos harán todo lo posible, por lo que están acelerando sus planes de construcción al máximo. Solo hay un pequeño problema. Recordemos el mantra del jefe de proyecto: «Puedes tener algo bueno, barato o rápido; elige dos». ¿Adivina qué? Han elegido «bueno y rápido», así que alguien tiene que pagar la factura. ¿Adivina quién?.

¡Sí! Seremos tú y yo. Un análisis de Bloomberg News sobre los precios mayoristas de la electricidad muestra que «en zonas cercanas a importantes centros de datos, la electricidad cuesta ahora hasta un 267% más al mes que hace cinco años». Esas facturas se dispararán en los próximos años.

Preveo una carrera entre el estallido de la burbuja de la IA, el colapso de nuestra ya sobrecargada red eléctrica y el hecho de que todos tiritemos en invierno y nos asemos de calor en verano, a medida que los costes derivados de la IA y los apagones nos hagan sentir miserables en nuestros hogares.

En una palabra: «¡Qué asco!».

Pero bueno, si me gustara apostar, diría que las empresas de IA fracasarán primero. No es la victoria que quizá deseábamos, pero es la victoria que conseguiremos.