En este momento estás viendo DeepSeek potencia su modelo de IA con la adición de un token multiplicado por diez, mientras Zhipu AI presenta GLM-5
La actualización de DeepSeek amplió el límite de conocimiento de su modelo de julio de 2024 a mayo de 2025, añadiendo casi un año de nueva información al sistema.

DeepSeek potencia su modelo de IA con la adición de un token multiplicado por diez, mientras Zhipu AI presenta GLM-5

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:febrero 13, 2026

La actualización permitirá que el modelo de IA de DeepSeek recuerde y procese más información en una sola conversación o tarea.

La startup china de inteligencia artificial DeepSeek ha actualizado su modelo insignia de IA, añadiendo compatibilidad con una gran ventana de contexto con conocimiento más actualizado, lo que genera mayor expectación por su próximo lanzamiento importante.

Al ser preguntado, el chatbot homónimo de DeepSeek confirmó en múltiples respuestas que, a partir del miércoles, había ampliado su ventana de contexto de 128.000 tokens a más de un millón, un aumento de casi diez veces que se espera que mejore la gestión de las consultas humanas por parte de los sistemas de IA.

Una ventana de contexto más amplia significa que un modelo de IA puede «recordar» y procesar más información en una sola conversación o tarea, lo que le permite realizar razonamientos más complejos o trabajar mejor con datos y código.

Esta actualización coincide con la presentación de otro gigante chino de la IA, Zhipu AI, su próximo modelo insignia ese mismo día, una iniciativa que impulsará aún más la competencia en la carrera de la IA.

El GLM-5 de Zhipu AI incorpora capacidades de codificación y agencia mejoradas gracias a un aumento del doble en sus parámetros y a la adopción de DeepSeek Sparse Attention, una técnica inventada por DeepSeek para lograr un equilibrio entre el rendimiento y la eficiencia del modelo.