- La división de nube de Google tiene un nuevo cliente importante.
- OpenAI utilizará Google Cloud Platform para ChatGPT y su interfaz de programación de aplicaciones (IPA) en varios países.
- OpenAI utilizará Google Cloud Platform, además de Microsoft, CoreWeave y Oracle.
OpenAI anunció el miércoles que espera utilizar la infraestructura en la nube de Google para su popular asistente de inteligencia artificial ChatGPT.
La búsqueda de capacidad adicional se alinea con el deseo de OpenAI de obtener mayor potencia informática para satisfacer la alta demanda, tras depender inicialmente exclusivamente de Microsoft para la capacidad en la nube. La relación entre ambas compañías ha evolucionado desde entonces, y Microsoft nombró a OpenAI como competidor el año pasado.
Ambas compañías venden herramientas de IA para desarrolladores y ofrecen suscripciones a empresas.
OpenAI ha añadido a Google a su lista de proveedores, especificando que ChatGPT y su interfaz de programación de aplicaciones (APP) utilizarán Google Cloud Platform, así como Microsoft, CoreWeave y Oracle.
El anuncio supone una victoria para Google, cuya unidad en la nube es más reciente y más pequeña que las de Amazon y Microsoft. Google también mantiene un negocio en la nube con Anthropic, empresa fundada por antiguos ejecutivos de OpenAI.
La infraestructura de Google operará en EE.UU., Japón, Países Bajos, Noruega y Reino Unido.
El año pasado, Oracle anunció su asociación con Microsoft y OpenAI para extender la plataforma Microsoft Azure AI a Oracle Cloud Infrastructure y dotar a OpenAI de mayor capacidad de procesamiento. En marzo, OpenAI se comprometió a firmar un acuerdo de nube con CoreWeave a cinco años por un valor cercano a los 12.000 millones de dólares.
Microsoft anunció en enero que había acordado adoptar un modelo que otorga el derecho de preferencia siempre que OpenAI necesite más recursos informáticos, en lugar de ser su proveedor exclusivo en todos los ámbitos. Microsoft mantiene la exclusividad de las interfaces de programación de OpenAI.
Sam Altman, cofundador y director ejecutivo de OpenAI, declaró en abril que la startup, que utiliza unidades de procesamiento gráfico de Nvidia para impulsar sus grandes modelos de lenguaje, se enfrentaba a limitaciones de capacidad.
«Si alguien tiene capacidad de GPU en bloques de 100.000 que podamos conseguir lo antes posible, ¡llámenos!» Escribió en una publicación de X en ese momento.
Reuters informó en junio que OpenAI planeaba incorporar capacidad en la nube de Google.

