En este momento estás viendo Alibaba revela RynnBrain, un modelo de IA corporizada que dota a los robots de un «cerebro»
Alibaba y su filial fintech, Ant Group, están lanzando sus propios modelos robóticos en un intento por dominar la próxima frontera tecnológica.

Alibaba revela RynnBrain, un modelo de IA corporizada que dota a los robots de un «cerebro»

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:febrero 13, 2026

El modelo, presentado por la Academia Damo de Alibaba, se basa en los modelos corporizados líderes de Google y Nvidia.

Alibaba Group Holding está intensificando sus esfuerzos en la intensa competencia china por los modelos de inteligencia corporizada, lanzando un nuevo modelo de código abierto que dota a los robots de un «cerebro».

RynnBrain, un modelo corporizado basado en Qwen3-VL de Alibaba, representa los últimos esfuerzos de la compañía para profundizar su presencia en el área de la inteligencia corporizada: sistemas de IA diseñados para percibir, razonar y actuar en entornos físicos en lugar de entornos puramente digitales.

La capacidad de razonamiento espacial del modelo lo distingue de sus competidores, lo que supone un gran avance para los desarrolladores chinos en el campo de los modelos fundamentales de inteligencia incorporada, afirmó Charlie Zheng, economista jefe de Samoyed Cloud Technology Group Holdings.

Esto representa un avance en los esfuerzos de China por resolver un obstáculo clave para el desarrollo y la comercialización de robots: desarrollar robots más potentes con «cerebros» en lugar de depender de rutinas preprogramadas.

Alibaba ha lanzado RynnBrain, un modelo fundamental de inteligencia incorporada basado en Qwen3-VL.

Según Alibaba, RynnBrain ha superado la observación pasiva y ha alcanzado capacidades más avanzadas para «realizar razonamientos físicamente conscientes y ejecutar tareas complejas del mundo real».

Fue capaz de identificar y mapear espacialmente posibilidades procesables dentro de contextos localizados o tridimensionales, lo que permite que los modelos de Visión-Lenguaje-Acción (VLA) posteriores lleven a cabo tareas más sofisticadas, agregó la compañía.