Ante la escasez de chips, las startups chinas de IA están rediseñando sus algoritmos, con la esperanza de que una arquitectura más eficiente resuelva el problema.
A medida que se reduce el acceso a chips avanzados, los desarrolladores chinos de IA se centran en solucionar un cuello de botella algorítmico en el núcleo de los grandes modelos de lenguaje (LLM), con la esperanza de que una arquitectura más eficiente, y no un hardware más potente, les permita adelantarse a sus rivales occidentales.
Al experimentar con formas híbridas de «atención» —el mecanismo que permite a los LLM procesar y recuperar información—, empresas emergentes como Moonshot AI y DeepSeek buscan optimizar los recursos informáticos limitados, sin dejar de competir con los líderes mundiales.
Su trabajo se centra en rediseñar el costoso proceso de «atención completa» que utilizan la mayoría de los LLM, el cual compara cada nuevo dato con todos los anteriores. A medida que aumenta el número de datos, este proceso se vuelve exponencialmente más exigente.
Los expertos en IA han identificado este limitado «presupuesto de atención» de los LLM como uno de los principales obstáculos para el desarrollo de agentes de IA potentes.
Los desarrolladores chinos están explorando sistemas híbridos de «atención lineal» que realizan comparaciones solo con un subconjunto de datos, lo que reduce drásticamente los costos computacionales.
Uno de los ejemplos más recientes es Kimi Linear de Moonshot AI, lanzado a finales de octubre, que introdujo una técnica híbrida de «Atención Delta Kimi» (KDA) para combinar capas de atención completa y lineal.

