Invertir en aumentar los recursos computacionales y los datos de entrenamiento aún puede generar mejores modelos de IA, afirma Yao Shunyu.
Existe un potencial considerable para mejorar los modelos de inteligencia artificial mediante el escalado de la potencia computacional y los datos, según Yao Shunyu, científico investigador sénior de Google DeepMind y exinvestigador de la startup estadounidense de IA Anthropic.
En medio de acalorados debates en la comunidad de IA sobre el futuro del escalado (el proceso de aumentar los recursos computacionales y los datos de entrenamiento para desarrollar mejores modelos de IA), Yao afirmó que se espera que el método siga produciendo resultados durante al menos un año «hasta que alcancemos el límite de los datos».
“Aún quedan muchos frutos al alcance de la mano”, declaró Yao en una entrevista con el Post el miércoles, poco después de que el pionero de la IA y cofundador de OpenAI, Ilya Sutskever, afirmara en un podcast que el sector estaba volviendo a una “era de investigación” tras una “era de escalado”.
Los comentarios de Sutskever surgen en medio de la preocupación por una burbuja financiera en la industria de la IA, donde hiperescaladores estadounidenses, como Google y Microsoft, han comprometido cientos de miles de millones de dólares en infraestructura de IA para entrenar la próxima generación de grandes modelos de lenguaje, lo que ha impulsado la demanda de chips de IA avanzados de Nvidia, líder del sector.
Sin embargo, el auge de startups chinas de IA como DeepSeek y Moonshot AI ha suscitado dudas sobre una inversión tan elevada. Ante las restricciones de acceso a chips estadounidenses avanzados, estas empresas se han centrado en mejoras algorítmicas para optimizar los modelos de IA.

Yao creía que no había ninguna razón para elegir entre el escalado y la investigación, ya que la industria de la IA siempre ha estado involucrada en ambos.

