El nuevo mecanismo ha generado entusiasmo entre los expertos en IA, cada vez más preocupados por el aumento de los costes de escalar los modelos.
Una innovación técnica ha permitido a Alibaba Group Holding, uno de los principales actores del auge de la inteligencia artificial en China, desarrollar una nueva generación de modelos base que igualan el sólido rendimiento de sus predecesores de mayor tamaño, a la vez que son significativamente más pequeños y más rentables.
Alibaba Cloud, la división de IA y computación en la nube de Alibaba, presentó el viernes una nueva generación de modelos de lenguaje de gran tamaño que, según afirmó, anuncian «el futuro de los LLM eficientes». Los nuevos modelos son casi 13 veces más pequeños que el modelo de IA más grande de la compañía, lanzado tan solo una semana antes. A pesar de su tamaño compacto, Qwen3-Next-80B-A3B se encuentra entre los mejores modelos de Alibaba hasta la fecha, según sus desarrolladores. La clave reside en su eficiencia: se dice que el modelo funciona 10 veces más rápido en algunas tareas que el modelo anterior, Qwen3-32B, lanzado en abril, a la vez que logra una reducción del 90% en los costes de entrenamiento.
Emad Mostaque, cofundador de la startup británica Stability AI, afirmó en X que el nuevo modelo de Alibaba superó prácticamente a cualquier modelo del año pasado, a pesar de un coste de entrenamiento estimado inferior a 500.000 dólares estadounidenses.
A modo de comparación, el entrenamiento de Gemini Ultra de Google, lanzado en febrero de 2024, tuvo un coste estimado de 191 millones de dólares estadounidenses, según el Índice de IA de la Universidad de Stanford.

Artificial Analysis, empresa líder en benchmarking de IA, afirmó que Qwen3-Next-80B-A3B superó las últimas versiones de DeepSeek R1 y Kimi-K2, de Moonshot AI, una startup respaldada por Alibaba.

