En este momento estás viendo El CEO de Cerebras insiste en que la startup de chips del tamaño de un plato saldrá a bolsa
Un servicio de inferencia lanzado un mes antes de la presentación de la OPI resultó ser un negocio mucho más grande de lo que se pensaba inicialmente.

El CEO de Cerebras insiste en que la startup de chips del tamaño de un plato saldrá a bolsa

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:octubre 8, 2025

Apenas unos días después de anunciar una ronda de financiación Serie G de 1.100 millones de dólares, la startup de chips de IA Cerebras Systems retiró su solicitud de OPI S-1 sin dar ninguna explicación.

En medio de la creciente preocupación por una burbuja de IA, ¿se ha echado atrás Andrew Feldman, CEO de Cerebras?. Al parecer, no. El domingo, en una entrevista en LinkedIn, Feldman se disculpó por la falta de transparencia y, presumiblemente, por el pánico que la decisión pudiera haber causado.

«El viernes, Cerebras Systems retiró nuestra solicitud S-1. No explicamos por qué; fue un error», escribió, añadiendo que sigue teniendo toda la intención de sacar la empresa a bolsa.

Fundada en 2015, Cerebras desarrolla aceleradores de IA del tamaño de un plato. Estos aceleradores se presentaron inicialmente como una alternativa a las GPU para el entrenamiento de modelos de IA. Sin embargo, si bien Cerebras no ha abandonado en absoluto el entrenamiento como carga de trabajo, este negocio ha quedado relegado a un segundo plano frente a la inferencia, un servicio que lanzó apenas un mes antes de anunciar su intención de salir a bolsa en septiembre del año pasado.

Como señala Feldman, mucho ha cambiado desde entonces. La inferencia ha demostrado ser una carga de trabajo particularmente potente para los aceleradores de Cerebras, cada uno de los cuales está equipado con más de 40 GB de SRAM, una clase de memoria integrada directamente en la matriz de cómputo y que hace que la memoria de alta velocidad (HBM) utilizada por sus rivales Nvidia y AMD parezca glacial en comparación.

Esto ha permitido a la compañía ofrecer acceso API a modelos a velocidades superiores a los 3.000 tokens por segundo para modelos como el gpt-oss-120B de OpenAI, mucho más rápido que el que se puede lograr con GPU.

Estas capacidades han ayudado a Cerebras a captar a varios clientes de alto perfil, como Mistral AI, AWS, Meta, IBM, Cognition, AlphaSense, Notion y Perplexity, un cambio importante con respecto al mismo periodo del año pasado.

En la presentación de la oferta pública inicial de la startup de septiembre de 2024, la compañía informó que G42, la joya de la corona de la IA de los Emiratos Árabes Unidos (EAU), representó el 87% de sus ingresos en el primer semestre de 2024, un hecho que generó numerosas preocupaciones entre los miembros del gobierno estadounidense.

Para apoyar a su creciente base de clientes, Cerebras anunció esta primavera la expansión de sus operaciones a cuatro nuevos centros de datos en Estados Unidos, además de uno en Montreal y otro en Francia. Con una financiación adicional de 1.100 millones de dólares en sus cuentas bancarias, la compañía planea ahora ampliar aún más su capacidad de fabricación y centros de datos en Estados Unidos.

Sin embargo, como señala Feldman, nada de este crecimiento se refleja en sus presentaciones S-1.

«Dado que el negocio ha mejorado significativamente, decidimos retirarnos para poder volver a presentar la solicitud con estados financieros actualizados, información estratégica, incluyendo nuestro enfoque en el cambiante panorama de la IA», escribió Feldman, enfatizando que la medida no refleja un cambio de estrategia.

«Volveremos a presentar nuestra solicitud S-1 cuando la documentación actualizada esté lista», escribió.