En este momento estás viendo Google Cloud lanza dos nuevos chips de IA para competir con Nvidia
Chip TPU.

Google Cloud lanza dos nuevos chips de IA para competir con Nvidia

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:abril 24, 2026

Google Cloud anunció el miércoles que su octava generación de chips de IA personalizados, o unidades de procesamiento tensorial (TPU), se dividirá en dos. Un chip, llamado TPU 8t, estará orientado al entrenamiento de modelos y el otro, el TPU 8i, a la inferencia.

La inferencia es el uso continuo de los modelos, es decir, lo que sucede después de que los usuarios envían sus datos.

Como era de esperar, la compañía destaca unas especificaciones de rendimiento impresionantes para estas nuevas TPU en comparación con las generaciones anteriores: hasta 3 veces más rápido el entrenamiento de modelos de IA, un 80% mejor rendimiento por dólar y la capacidad de hacer que más de un millón de TPU trabajen juntas en un solo clúster. El resultado debería ser mucha más capacidad de procesamiento con mucha menos energía —y a un menor coste para los clientes— que las versiones anteriores. Google denomina a estos chips TPU, no GPU, porque sus chips personalizados de bajo consumo se llamaban originalmente Tensor.

Pero los chips de Google no representan un ataque frontal al futuro de Nvidia, al menos no por ahora. Al igual que otros gigantes de la nube, como Microsoft y Amazon, Google utiliza estos chips para complementar los sistemas basados ​​en Nvidia que ofrece en su infraestructura. No está reemplazando directamente a Nvidia. De hecho, Google promete que su nube contará con el último chip de Nvidia, Vera Rubin, a finales de este año.

Es posible que, en el futuro, los proveedores de servicios en la nube a gran escala que desarrollan sus propios chips de IA (entre los que se incluyen Amazon, Microsoft y Google) necesiten menos a Nvidia, a medida que las empresas trasladen sus necesidades de IA a sus nubes y adapten sus aplicaciones a estos chips.

Sin embargo, en la situación actual, no es rentable apostar en contra de Nvidia. Como comentó en tono de broma el reconocido analista del mercado de chips Patrick Moorhead en X, predijo en 2016, cuando el gigante de las búsquedas lanzó su primer TPU, que la TPU de Google podría ser una mala noticia para Nvidia (e Intel). Nvidia es ahora una empresa con una capitalización de mercado de casi 5 billones de dólares, lo que significa que aquella predicción no se ha cumplido.

Si todo sale según lo planeado por Nvidia, el crecimiento de Google como proveedor de servicios en la nube para IA se traduciría en más negocio para el fabricante de chips, no en menos, incluso si muchas cargas de trabajo se ejecutan en chips de Google.

De hecho, Google también afirma haber acordado colaborar con Nvidia para diseñar redes informáticas que permitan a los sistemas basados ​​en Nvidia funcionar de forma aún más eficiente en su nube. En concreto, ambos gigantes tecnológicos están trabajando para mejorar la tecnología de red basada en software llamada Falcon, que Google creó y liberó como código abierto en 2023 bajo el auspicio del Open Compute Project, la organización pionera en hardware de centros de datos de código abierto.