Kimi K2 Thinking supera a GPT-5 de OpenAI y a Claude Sonnet 4.5 de Anthropic, lo que ha provocado comparaciones con el avance de DeepSeek.
Un nuevo modelo de razonamiento desarrollado por una startup china de inteligencia artificial, cuyo rendimiento supera al de GPT-5 de OpenAI y al de Claude Sonnet 4.5 de Anthropic en varias métricas, ha reavivado el debate sobre un posible nuevo momento DeepSeek y la trayectoria de la supremacía estadounidense en IA.
Moonshot AI, una startup con sede en Beijing valorada en 3.300 millones de dólares y respaldada por gigantes tecnológicos chinos como Alibaba Group Holding y Tencent Holdings, ha protagonizado una nueva historia de superación personal tras crear un modelo de código abierto que «estableció nuevos récords en pruebas de rendimiento que evalúan el razonamiento, la codificación y las capacidades de los agentes».
El nuevo modelo de razonamiento, Kimi K2 Thinking, era el más popular entre los desarrolladores de Hugging Face hasta el lunes, mientras que su publicación de lanzamiento en X había alcanzado 4,5 millones de visualizaciones. La popularidad del modelo —una variante del Kimi K2— creció aún más después de que CNBC informara de que su coste de entrenamiento era de tan solo 4,6 millones de dólares. Moonshot AI no hizo comentarios al respecto.
Incluso sin tener en cuenta su coste, el último modelo ha impresionado a la comunidad de IA. Thomas Wolf, cofundador de Hugging Face, comentó en X que Kimi K2 Thinking era otro ejemplo de un modelo de código abierto que superaba a uno de código cerrado.

«¿Estamos ante otro caso como el de DeepSeek?», preguntó Wolf. Se refería al lanzamiento, a principios de este año, del modelo de razonamiento R1, de bajo costo pero alta eficiencia, por parte de la startup china de IA con sede en Hangzhou, que sacudió la percepción de la supremacía absoluta de la IA estadounidense. «¿Deberíamos esperar uno cada dos meses a partir de ahora?».

