El rendimiento de la arquitectura del centro de datos de IA de Huawei, CloudMatrix 384, ilustra el progreso de la empresa en la superación de las medidas de control tecnológico de EE.UU.
La arquitectura avanzada del centro de datos de Huawei Technologies, CloudMatrix 384, ha permitido que los chips Ascend de la compañía superen el rendimiento delas unidades de procesamiento de gráficos (GPU) H800 de Nvidia al ejecutar el modelo de inteligencia artificial (IA) R1 de DeepSeek, según un documento técnico.
El documento , escrito en conjunto por investigadores de Huawei y la empresa emergente china de infraestructura de IA SiliconFlow, describe a CloudMatrix 384 como un “supernodo de IA” especializado, diseñado específicamente para gestionar cargas de trabajo de IA extensas.
Huawei esperaba que CloudMatrix transformara las bases de la infraestructura de IA, según el documento publicado esta semana. Consta de 384 unidades de procesamiento neuronal (NPU) Ascend 910C y 192 unidades de procesamiento central (CPU) de servidor Kunpeng, interconectadas mediante un bus unificado que proporciona un ancho de banda ultraalto y baja latencia.
La solución avanzada de modelos de lenguaje grande (LLM), denominada CloudMatrix-Infer, aprovecha dicha infraestructura, según el artículo. Superó el rendimiento de algunos de los sistemas más destacados del mundo al ejecutar el modelo de razonamiento R1 de DeepSeek, con 671 mil millones de parámetros.
La arquitectura refleja los esfuerzos de Huawei, sancionada por Estados Unidos, por superar las medidas de control tecnológico de Washington, mientras la empresa amplía los límites del rendimiento del sistema de inteligencia artificial.
Los centros de datos son instalaciones que albergan servidores y sistemas de almacenamiento de datos de gran capacidad, con múltiples fuentes de alimentación y conexiones a internet de alto ancho de banda. Cada vez más empresas utilizan centros de datos para alojar o gestionar la infraestructura informática de sus proyectos de IA.