La plataforma de infraestructura Baige 5.0 busca aumentar la eficiencia de los modelos de IA de código abierto de DeepSeek.
Baidu, uno de los líderes chinos en inteligencia artificial, presentó el jueves su plataforma de infraestructura de IA Baige 5.0, impulsada por una combinación de semiconductores, incluyendo los diseñados por su unidad Kunlunxin, para aumentar la eficiencia de los modelos de código abierto de DeepSeek. La plataforma mejorada del gigante de la inteligencia artificial y las búsquedas en internet, con sede en Beijing, ofrece una conexión de red más rápida, mayor potencia de procesamiento y mejores capacidades de entrenamiento e inferencia de modelos, según el vicepresidente ejecutivo Shen Dou, quien también preside Baidu AI Cloud Group, en un evento corporativo celebrado en la capital china el jueves.
El sistema de inferencia de Baige, respaldado por tecnologías de asignación de recursos adaptativas e inteligentes que aceleran el procesamiento de datos y reducen la latencia de las comunicaciones, mejoró la eficiencia de inferencia del modelo de razonamiento R1 de DeepSeek en aproximadamente un 50%, según Shen. La inferencia es el proceso que utiliza un modelo de IA entrenado para extraer conclusiones en respuesta a consultas humanas.
«Esto significa que, con el mismo tiempo y coste, podríamos hacer que el modelo ‘piense’ un 50% más [o] trabaje un 50% más», afirmó Shen. El lanzamiento de Baige 5.0 refleja los crecientes esfuerzos de los sectores de IA y semiconductores de China continental para impulsar el desarrollo de una pila tecnológica de IA nacional, reduciendo así el impacto de las restricciones comerciales estadounidenses sobre China.

Shen afirmó que el Supernodo Kunlunxin, que soporta cientos de chips de IA interconectados, se ha puesto en marcha en la plataforma Baige 5.0, lo que le permite implementar y ejecutar un sistema de IA de un billón de parámetros en cuestión de minutos. La cantidad de parámetros en un modelo de IA determina el tamaño y la complejidad de su uso.

