En este momento estás viendo El acuerdo con Google Grid ayuda a combatir la glotonería energética de la IA
Imagen creada con IA.

El acuerdo con Google Grid ayuda a combatir la glotonería energética de la IA

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:agosto 11, 2025

Google presentó una de sus iniciativas para abordar la creciente demanda de energía en sus centros de datos, impulsada por aplicaciones de inteligencia artificial que consumen mucha energía.

La compañía anunció acuerdos con Indiana Michigan Power y la Autoridad del Valle de Tennessee para limitar la demanda de energía de las cargas de trabajo de aprendizaje automático en sus centros de datos en esas regiones.

“Esto se basa en nuestra exitosa demostración con el Distrito de Energía Pública de Omaha (OPPD), donde redujimos la demanda de energía asociada a las cargas de trabajo de aprendizaje automático durante tres eventos de la red el año pasado”, explicó Michael Terrell, director de energía avanzada de Google, en un blog de la compañía.

Google comenzó a gestionar la demanda de la red en sus centros de datos trasladando tareas informáticas no urgentes, como procesar un vídeo de YouTube, durante periodos específicos de alta demanda. A través de sus colaboraciones, aprovechó estas capacidades de gestión de la demanda para ayudar a los operadores de la red a mantener la fiabilidad durante los periodos de máxima demanda.

“A medida que se acelera la adopción de la IA, vemos una oportunidad significativa para ampliar nuestro conjunto de herramientas de respuesta a la demanda, desarrollar capacidades específicas para cargas de trabajo de aprendizaje automático y aprovecharlas para gestionar nuevas y grandes cargas de energía”, escribió Terrell. Al incluir la flexibilidad de carga en nuestro plan energético general, podemos gestionar el crecimiento impulsado por la IA incluso donde la generación y la transmisión de energía están limitadas.

Pete DiSanto, vicepresidente sénior de centros de datos de Enchanted Rock, empresa de resiliencia eléctrica como servicio en Houston, añadió: «Las soluciones orientadas a la demanda son absolutamente cruciales para alinear el crecimiento con la fiabilidad de la red».

«Sin soluciones orientadas a la demanda, la red simplemente no podrá seguir el ritmo de la escala y la velocidad del crecimiento de los centros de datos con IA, especialmente en regiones que ya enfrentan desafíos de capacidad e interconexión», declaró. «Estas herramientas son clave para permitir una rápida expansión sin interrumpir la red».

La IA limita la capacidad energética de EE. UU.

Se espera que las soluciones de gestión de energía orientadas a la demanda desempeñen un papel crucial para satisfacer la creciente demanda de electricidad de los centros de datos impulsados por IA en los próximos años. Según Morningstar Research Services, se espera que la capacidad energética de los centros de datos estadounidenses se triplique aproximadamente hasta alcanzar los 80 gigavatios para 2030, impulsada por el crecimiento de los centros de datos que utilizan inteligencia artificial generativa.

Sin embargo, Morningstar reconoce que sus proyecciones son menos optimistas que las de otros analistas, que prevén una capacidad que alcance los 100 gigavatios durante el mismo período. «Creemos que estas previsiones pasan por alto las limitaciones prácticas asociadas a la construcción de infraestructuras a gran escala y también subestiman el aumento a largo plazo de la eficiencia energética de los chips de IA», señaló en un informe titulado «Impulsando el Centro de Datos de IA del Futuro», publicado en julio.

“No tenemos suficiente capacidad de generación para las cargas energéticas existentes ni para los centros de datos de IA”, declaró Rob Enderle, presidente y analista principal de Enderle Group, una firma de servicios de asesoría con sede en Bend, Oregón.

“Es fundamental crear soluciones orientadas a la demanda para mitigar lo que, de otro modo, serían largos periodos de caídas de tensión o cortes totales de suministro, a fin de evitar que la red eléctrica sufra un fallo catastrófico que requiera la reconstrucción de gran parte de ella”, declaró.

Mark N. Vena, presidente y analista principal de SmartTech Research en Las Vegas, coincidió. «A medida que las cargas de trabajo de IA se disparan, la red eléctrica simplemente no puede mantener el ritmo a menos que la demanda se adapte en tiempo real», declaró. «Las estrategias orientadas a la demanda, como desplazar las cargas de cómputo o pausar procesos no urgentes, ayudan a evitar apagones y, al mismo tiempo, a satisfacer las necesidades de los centros de datos».

Flexibilidad esencial para los centros de datos.

Las soluciones orientadas a la demanda no solo son importantes, sino que se están convirtiendo en un requisito previo para el crecimiento, afirmó Wyatt Mayham, director de consultoría de IA en Northwest AI Consulting (NAIC), proveedor global de servicios de consultoría de IA. «La idea de simplemente construir más centrales eléctricas es demasiado lenta», declaró. «Las colas de interconexión a la red ya son de años».

«Los acuerdos de respuesta a la demanda permiten que los centros de datos actúen como una central eléctrica virtual, proporcionando la estabilidad de la red que las empresas de servicios públicos necesitan desesperadamente», concluyó. Para el centro de datos, representa una nueva fuente de ingresos y, aún más importante, un acceso prioritario a la asignación de energía. Veremos que estos acuerdos se convertirán en un requisito indispensable para cualquier implementación de IA a gran escala.

Ezra Hodge, socio director sénior y líder del grupo de práctica global de inteligencia artificial de EMA Partners, firma internacional de búsqueda de ejecutivos y asesoría de liderazgo, coincidió en que la flexibilidad en la demanda pronto será un requisito indispensable, pero añadió: «No se trata solo de software o deslastre de carga».

«La verdadera clave reside en el talento: líderes que comprendan tanto la infraestructura de IA como los mercados energéticos», declaró. «Sin esa doble fluidez en la sala, las soluciones en la demanda se quedan en teoría en lugar de en la práctica».

«Lo que se necesita ahora son operadores interdisciplinarios —a nivel de vicepresidente o superior— que puedan traducir las cargas de trabajo de IA al lenguaje energético y las limitaciones de la red a la arquitectura del centro de datos», concluyó.

Gestión de la energía sin pérdida de rendimiento.

Si bien una reducción de la energía para satisfacer los picos de demanda en la red eléctrica puede degradar el servicio, una gestión inteligente de la energía en el centro de datos puede evitar este problema. «Una reducción de la energía implica una reducción de la capacidad de procesamiento. Es física. No hay forma de evitar las leyes de la física», reconoció Rick Bentley, director ejecutivo de Hydro Hash, una empresa de minería de criptomonedas centrada en la energía limpia y las operaciones de alta eficiencia en Albuquerque, Nuevo México.

«Dicho esto, el centro de datos podría recurrir a la generación local o in situ de sus sistemas de respaldo durante este periodo para mantener la disponibilidad de energía y, por lo tanto, la capacidad de procesamiento, sin sobrecargar la red eléctrica», declaró.

Everett Thompson, fundador y director ejecutivo de WiredRE, una firma de asesoría con sede en Las Vegas especializada en la nube, la coubicación y la infraestructura de centros de datos, explicó que cada centro de datos comienza con su propia red eléctrica in situ.

«Esta red eléctrica puede consistir en generadores diésel y baterías, pero sigue siendo una red eléctrica in situ», declaró. “Lo que está cambiando es la relación entre el usuario final y la red, ya que los usuarios finales asumen una mayor responsabilidad a medida que los recursos de la red se ven limitados”.

Puede existir cierto riesgo de degradación del servicio, pero es manejable, afirmó DiSanto, de Enchanted Rock. «Con un buen diseño, las estrategias orientadas a la demanda permiten que los centros de datos de IA respalden la estabilidad de la red sin sacrificar el rendimiento crítico», afirmó. «Se trata de diseñar para lograr flexibilidad desde el principio».

«Los sistemas de generación de gas natural detrás del medidor y de almacenamiento de energía en baterías desempeñan un papel clave, proporcionando energía confiable y despachable durante los picos de la red, de modo que el rendimiento computacional se mantenga ininterrumpido, incluso cuando el suministro de la red eléctrica esté restringido», añadió.

«Empresas como Google están diseñando sistemas que priorizan las tareas flexibles y no sensibles a la latencia para su reducción», añadió Vena, de SmartTech. «Mientras la inferencia crítica y las aplicaciones de baja latencia estén protegidas, la mayoría de los usuarios no notarán nada».

Los desafíos de la red van más allá de la generación de energía.

La clave para evitar la degradación es comprender que no todas las cargas de trabajo de IA son iguales, señaló Mayham, de NAIC. “Un evento de respuesta a la demanda no implica cerrar servicios de atención al cliente como la búsqueda o los chats de IA generativa”, afirmó. “Significa pausar cargas de trabajo no urgentes que consumen muchos recursos, como entrenar un modelo futuro o ejecutar un análisis masivo por lotes. Estas tareas son altamente programables”.

“La capacidad de trasladar estas cargas masivas a horas valle o pausarlas durante una hora es precisamente la ‘flexibilidad de carga’ de la que habla Google”, continuó. “Es un desafío de software sofisticado, no una barrera técnica fundamental”.

Señaló que el verdadero cuello de botella no es la generación de energía, sino la red eléctrica física. “Esta es la parte que la mayoría de la gente pasa por alto”, afirmó. “Puedes tener un contrato de cientos de megavatios, pero es inútil si no puedes llevarlos a tus racks”.

“Estamos viendo retrasos de varios años en hardware crítico como los transformadores de alta tensión”, continuó. Algunos proyectos de centros de datos se están estancando no por falta de generación de energía, sino por la escasez de componentes eléctricos básicos. La estrategia de Google es realista porque sortea esta limitación aprovechando mejor la infraestructura existente, reduciendo la necesidad de nuevas y laboriosas ampliaciones de la red eléctrica.

El futuro de la energía de la IA no es una sola solución —añadió—. Es una carrera armamentística que abarca todas las opciones. Más allá de la respuesta a la demanda, las principales empresas están invirtiendo en todo, desde refrigeración líquida directa al chip para reducir el desperdicio de energía, hasta la firma de acuerdos a largo plazo con centrales nucleares y la financiación del desarrollo de pequeños reactores modulares para alimentar directamente los campus de centros de datos, evitando por completo la red eléctrica.