Google afirma que su modelo HOPE se basa en un nuevo concepto llamado «aprendizaje anidado», que podría ayudar a superar las limitaciones de los modelos de aprendizaje automático actuales, especialmente su incapacidad para aprender continuamente.
En un importante avance hacia la creación de una IA que aprenda y mejore continuamente, investigadores de Google anunciaron el desarrollo de un nuevo modelo de aprendizaje automático con una arquitectura automodificable. Denominado «HOPE», este nuevo modelo ofrece una gestión de memoria de contexto a largo plazo superior a la de los modelos de IA más avanzados.
Su objetivo es demostrar la viabilidad de un nuevo enfoque denominado «aprendizaje anidado», ideado por los investigadores de Google. En este enfoque, un único modelo se concibe como un «sistema de problemas de aprendizaje interconectados y multinivel que se optimizan simultáneamente», en lugar de un proceso continuo, según explicó el gigante de las búsquedas en una publicación de blog el sábado 8 de noviembre.
Google afirmó que el nuevo concepto de «aprendizaje anidado» podría ayudar a superar las limitaciones de los modelos de lenguaje grandes (LLM) modernos, como el aprendizaje continuo, un paso crucial en el camino hacia la inteligencia artificial general (IAG) o inteligencia similar a la humana.
El mes pasado, Andrej Karpathy, un científico investigador de IA/ML de gran prestigio que trabajó anteriormente en Google DeepMind, afirmó que la Inteligencia Artificial General (IAG) aún tardaría una década en hacerse realidad, principalmente porque nadie ha logrado desarrollar un sistema de IA que aprenda continuamente, al menos hasta ahora. «No tienen aprendizaje continuo. No se les puede decir algo y esperar que lo recuerden. Tienen limitaciones cognitivas y simplemente no funciona. Se necesitará aproximadamente una década para resolver todos estos problemas», declaró Karpathy en un podcast.
«Creemos que el paradigma de Aprendizaje Anidado ofrece una base sólida para cerrar la brecha entre la naturaleza limitada y la tendencia al olvido de los modelos de aprendizaje automático (MLA) actuales y las extraordinarias capacidades de aprendizaje continuo del cerebro humano», afirmó Google. Los hallazgos de los investigadores se publicaron en un artículo titulado «Aprendizaje Anidado: La Ilusión de las Arquitecturas de Aprendizaje Profundo» en NeurIPS 2025.
¿Qué es el aprendizaje continuo?. ¿Por qué representa un desafío?.
Los modelos de aprendizaje lógico (MLL) que impulsan los chatbots de IA son capaces de escribir sonetos y generar código en cuestión de segundos. Sin embargo, aún carecen de la capacidad básica de aprender de la experiencia.
A diferencia del cerebro humano, que aprende y mejora continuamente, los MLL actuales no pueden adquirir nuevos conocimientos ni habilidades sin olvidar lo que ya saben. Esta incapacidad se conoce como «olvido catastrófico» (OC).
Durante años, los investigadores han intentado abordar el OC ajustando la arquitectura del modelo o desarrollando mejores técnicas de optimización. Sin embargo, los investigadores de Google argumentan que la arquitectura del modelo y las reglas utilizadas para entrenarlo (es decir, el algoritmo de optimización) son, fundamentalmente, el mismo concepto.
«Al reconocer esta estructura inherente, el aprendizaje anidado proporciona una nueva dimensión, hasta ahora invisible, para diseñar IA más potente, lo que nos permite crear componentes de aprendizaje con mayor capacidad computacional, lo que en última instancia ayuda a resolver problemas como el olvido catastrófico», escribieron los investigadores.
¿Qué es el aprendizaje anidado?.
Según los investigadores, el concepto de Aprendizaje Anidado considera un modelo de aprendizaje automático complejo como «un conjunto de problemas de optimización coherentes e interconectados, anidados entre sí o ejecutándose en paralelo». «Cada uno de estos problemas internos tiene su propio flujo de contexto: su propio conjunto de información, del cual intenta aprender», añadieron.
Google afirmó que, al basarse en estos principios, los desarrolladores podrán crear componentes de aprendizaje en modelos de aprendizaje del lenguaje (ML) con mayor capacidad computacional. «Los modelos resultantes, como la arquitectura HOPE, demuestran que un enfoque basado en principios para unificar estos elementos puede conducir a algoritmos de aprendizaje más expresivos, capaces y eficientes», agregó.
Según la empresa, el modelo de prueba de concepto, HOPE, demostró menor perplejidad y mayor precisión en comparación con los LLM modernos al ser probado en un conjunto diverso de tareas de modelado del lenguaje y razonamiento de sentido común, tanto de uso común como públicas.

