En este momento estás viendo ¿Por qué el nuevo modelo de Moonshot AI de China genera un debate sobre el «momento DeepSeek»?
Moonshot AI afirma que su nuevo modelo de código abierto ha "establecido récords en pruebas comparativas que evalúan el razonamiento, la codificación y las capacidades de los agentes".

¿Por qué el nuevo modelo de Moonshot AI de China genera un debate sobre el «momento DeepSeek»?

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:noviembre 11, 2025

Kimi K2 Thinking supera a GPT-5 de OpenAI y a Claude Sonnet 4.5 de Anthropic, lo que ha provocado comparaciones con el avance de DeepSeek.

Un nuevo modelo de razonamiento desarrollado por una startup china de inteligencia artificial, cuyo rendimiento supera al de GPT-5 de OpenAI y al de Claude Sonnet 4.5 de Anthropic en varias métricas, ha reavivado el debate sobre un posible nuevo momento DeepSeek y la trayectoria de la supremacía estadounidense en IA.

Moonshot AI, una startup con sede en Beijing valorada en 3.300 millones de dólares y respaldada por gigantes tecnológicos chinos como Alibaba Group Holding y Tencent Holdings, ha protagonizado una nueva historia de superación personal tras crear un modelo de código abierto que «estableció nuevos récords en pruebas de rendimiento que evalúan el razonamiento, la codificación y las capacidades de los agentes».

El nuevo modelo de razonamiento, Kimi K2 Thinking, era el más popular entre los desarrolladores de Hugging Face hasta el lunes, mientras que su publicación de lanzamiento en X había alcanzado 4,5 millones de visualizaciones. La popularidad del modelo —una variante del Kimi K2— creció aún más después de que CNBC informara de que su coste de entrenamiento era de tan solo 4,6 millones de dólares. Moonshot AI no hizo comentarios al respecto.

Incluso sin tener en cuenta su coste, el último modelo ha impresionado a la comunidad de IA. Thomas Wolf, cofundador de Hugging Face, comentó en X que Kimi K2 Thinking era otro ejemplo de un modelo de código abierto que superaba a uno de código cerrado.

Según un analista, los costos de entrenamiento de los modelos de IA chinos están experimentando una caída drástica.

«¿Estamos ante otro caso como el de DeepSeek?», preguntó Wolf. Se refería al lanzamiento, a principios de este año, del modelo de razonamiento R1, de bajo costo pero alta eficiencia, por parte de la startup china de IA con sede en Hangzhou, que sacudió la percepción de la supremacía absoluta de la IA estadounidense. «¿Deberíamos esperar uno cada dos meses a partir de ahora?».