OpenAI, que ya no está ligado a la infraestructura de Microsoft, busca expandir su red de proveedores de computación a empresas como Oracle, CoreWeave y, aparentemente, incluso a su rival, Google, creador de modelos.
Pero aunque OpenAI se haya establecido en la Chocolate Factory, no utilizará las unidades de procesamiento tensorial (TPU) de Google para ejecutar o entrenar sus modelos en un futuro próximo, según declaró a Reuters la estrella de la IA.
En una declaración a la publicación durante el fin de semana, OpenAI admitió que estaba experimentando con las TPU de Google, pero que no tenía planes de implementarlas a gran escala por ahora.
La negación llega días después de que The Information informara que Google había logrado convencer al creador de modelos para que transfiriera sus cargas de trabajo a los aceleradores de desarrollo propio.
La supuesta adopción por parte de OpenAI de la tecnología TPU de Google fue interpretada por muchos como una señal de que el creador de modelos, respaldado por Sam Altman, no solo buscaba dejar de depender de Microsoft, sino también del hardware de Nvidia.
Sin embargo, si ha estado prestando atención, sabrá que OpenAI lleva un tiempo diversificando su conjunto de hardware. Si bien la compañía comenzó utilizando los sistemas DGX de Nvidia, nunca ha sido una relación exclusiva.
A lo largo de los años, el conjunto de GPT del creador de modelos se ha ejecutado en una amplia variedad de hardware. Quizás recuerde que Microsoft tenía GPT-3.5 ejecutándose en sus aceleradores Maia de desarrollo propio.
Microsoft, hasta hace poco el principal proveedor de infraestructura de OpenAI, también fue uno de los primeros en adoptar los aceleradores de la serie Instinct MI300 de AMD, siendo la ejecución de modelos como GPT-4 uno de sus usos clave.
Los aceleradores de AMD han ofrecido históricamente mayores capacidades de memoria y ancho de banda, lo que probablemente los hace más económicos que las GPU de Nvidia para el servicio de modelos.
Aunque los vínculos de OpenAI con Microsoft se han suavizado, AMD sigue siendo un socio clave de hardware para el gigante emergente de la IA. El mes pasado, Altman participó en el evento «Advancing AI» de AMD en San José para destacar su colaboración continua.
Por si fuera poco, se informa que OpenAI está desarrollando un chip de IA propio para optimizar aún más la relación entre computación, memoria, ancho de banda y redes para sus procesos de entrenamiento e inferencia.
Considerando todo esto, la idea de que OpenAI esté experimentando con el silicio de fabricación propia de Google no es tan sorprendente. Los modelos Gemini del motor de búsqueda ya han demostrado que la arquitectura es más que capaz de realizar entrenamientos a gran escala.
Google también ofrece diversas configuraciones de estos aceleradores, cada una con diferentes ratios de cómputo, memoria y escalabilidad, lo que otorgaría a OpenAI cierta flexibilidad según sus necesidades de entrenamiento con alto consumo de cómputo o cargas de trabajo de inferencia con ancho de banda limitado.
La séptima generación de TPU Ironwood de Chocolate Factory ofrece hasta 4,6 petaFLOPS de rendimiento FP8 denso, 192 GB de memoria de alto ancho de banda (HBM) para 7,4 TB/s de ancho de banda y 1,2 TB/s de ancho de banda entre chips, lo que las sitúa en el mismo rango que los aceleradores Blackwell de Nvidia.
La TPUv7 está disponible en dos configuraciones: un pod con 256 chips o 9216. Nos dicen que se pueden conectar varios pods para ampliar aún más la capacidad de cómputo a más de 400.000 aceleradores. Y si hay algo que entusiasma a Sam Altman, es la enorme cantidad de cómputo.
Entonces, ¿por qué OpenAI decidió no usar las TPU de Google? Podría haber un par de factores en juego. Es posible que el rendimiento no fuera tan bueno como se esperaba, que Google no tuviera suficientes TPU disponibles para satisfacer las necesidades de OpenAI, o simplemente que el coste por token fuera demasiado elevado.
Sin embargo, la respuesta más obvia es que la pila de software de OpenAI se ha optimizado, en su mayor parte, para ejecutarse en GPU. Adaptar este software para aprovechar al máximo la arquitectura de TPU de Google requeriría tiempo y recursos adicionales, y, en última instancia, podría no ofrecer muchas ventajas tangibles, si es que ofrece alguna, en comparación con seguir usando GPU.
Como dicen, la hierba siempre es más verde al otro lado. Nunca lo sabrás con certeza a menos que lo compruebes.

