En este momento estás viendo Amazon Web Services está construyendo equipos para enfriar las GPU de Nvidia a medida que se acelera el auge de la IA
Las siglas AI, que significan "inteligencia artificial", se exhiben en el stand de Amazon Web Services en la feria industrial Hannover Messe de Hannover, Alemania.

Amazon Web Services está construyendo equipos para enfriar las GPU de Nvidia a medida que se acelera el auge de la IA

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:julio 11, 2025
  • El intercambiador de calor en fila, diseñado por los ingenieros de Amazon, refrigerará los enormes sistemas de IA de Nvidia.
  • Amazon Web Services consideró la posibilidad de construir centros de datos y sistemas refrigerados por líquido de terceros antes de concluir que debería desarrollar su propia solución.
  • «Ocuparían demasiado espacio en el centro de datos o aumentarían considerablemente el consumo de agua», declaró Dave Brown, vicepresidente de servicios de computación y aprendizaje automático de AWS, en un video.

Amazon anunció el miércoles que su división de nube ha desarrollado hardware para refrigerar las unidades de procesamiento gráfico de próxima generación de Nvidia, utilizadas para cargas de trabajo de inteligencia artificial.

Las GPU de Nvidia, que han impulsado el auge de la IA generativa, requieren enormes cantidades de energía. Esto significa que las empresas que utilizan estos procesadores necesitan equipos adicionales para refrigerarlos.

Amazon consideró la posibilidad de construir centros de datos que pudieran integrar refrigeración líquida generalizada para aprovechar al máximo estas GPU Nvidia de alto consumo energético. Sin embargo, ese proceso habría sido demasiado largo y los equipos disponibles comercialmente no habrían funcionado, según declaró Dave Brown, vicepresidente de servicios de computación y aprendizaje automático de Amazon Web Services, en un video publicado en YouTube.

“Ocuparían demasiado espacio en el centro de datos o aumentarían considerablemente el consumo de agua”, afirmó Brown. “Y aunque algunas de estas soluciones podrían funcionar para volúmenes menores en otros proveedores, simplemente no tendrían suficiente capacidad de refrigeración líquida para respaldar nuestra escala”.

En su lugar, los ingenieros de Amazon idearon el Intercambiador de Calor en Fila (IRHX), que se puede conectar a centros de datos existentes y nuevos. La refrigeración por aire más tradicional era suficiente para las generaciones anteriores de chips Nvidia.

Los clientes ahora pueden acceder al servicio de AWS como instancias de computación denominadas P6e, escribió Brown en una entrada de blog. Los nuevos sistemas se ajustan al diseño de Nvidia para una potencia de computación densa. El GB200 NVL72 de Nvidia integra un solo rack con 72 GPU Nvidia Blackwell interconectadas para entrenar y ejecutar grandes modelos de IA.

Los clústeres de computación basados ​​en el GB200 NVL72 de Nvidia ya estaban disponibles a través de Microsoft o CoreWeave. AWS es el mayor proveedor mundial de infraestructura en la nube.

Amazon ha implementado su propio hardware de infraestructura anteriormente. La compañía cuenta con chips personalizados para computación de propósito general y para IA, y ha diseñado sus propios servidores de almacenamiento y enrutadores de red. Al utilizar hardware propio, Amazon depende menos de proveedores externos, lo que puede beneficiar sus resultados. En el primer trimestre, AWS registró el margen operativo más amplio desde al menos 2014, y la unidad es responsable de la mayor parte de los ingresos netos de Amazon.

Microsoft, el segundo mayor proveedor de servicios en la nube, ha seguido el ejemplo de Amazon y ha avanzado mucho en el desarrollo de chips. En 2023, la compañía diseñó sus propios sistemas llamados Sidekicks para enfriar los chips Maia AI que desarrolló.