- Qualcomm anunció el lanzamiento de nuevos chips aceleradores de IA.
- Nvidia ha dominado el mercado de chips de IA, con AMD en segundo lugar.
- Google, Amazon, Microsoft y OpenAI también están desarrollando sus propios aceleradores de IA para sus servicios en la nube.
Qualcomm anunció el lunes el lanzamiento de nuevos chips aceleradores de inteligencia artificial, lo que supone una nueva competencia para Nvidia, que hasta ahora ha dominado el mercado de semiconductores para IA.
Las acciones se dispararon un 11% tras la noticia.
Estos chips de IA suponen un cambio con respecto a Qualcomm, que hasta ahora se ha centrado en semiconductores para conectividad inalámbrica y dispositivos móviles, no en centros de datos masivos.
Qualcomm afirmó que tanto el AI200, que saldrá a la venta en 2026, como el AI250, previsto para 2027, pueden incorporarse en un sistema que ocupa un rack de servidores completo con refrigeración líquida.
Qualcomm se está equiparando a Nvidia y AMD, que ofrecen sus unidades de procesamiento gráfico, o GPU, en sistemas de rack completo que permiten que hasta 72 chips funcionen como un solo ordenador. Los laboratorios de IA necesitan esa potencia de cálculo para ejecutar los modelos más avanzados.
Los chips para centros de datos de Qualcomm se basan en los componentes de IA de los chips para smartphones de Qualcomm, llamados unidades de procesamiento neuronal Hexagon o NPU.
“Primero queríamos demostrar nuestra valía en otros ámbitos, y una vez consolidados en ellos, nos resultó bastante fácil ascender al nivel de centros de datos”, declaró Durga Malladi, director general de centros de datos y edge de Qualcomm, en una conferencia telefónica con periodistas la semana pasada.
La entrada de Qualcomm en el sector de los centros de datos marca una nueva competencia en el mercado tecnológico de mayor crecimiento: equipos para nuevas granjas de servidores centradas en la IA.
Según una estimación de McKinsey, se invertirán casi 6,7 billones de dólares en inversiones de capital en centros de datos hasta 2030, la mayor parte de los cuales se destinarán a sistemas basados en chips de IA.
La industria ha estado dominada por Nvidia, cuyas GPU controlan más del 90% del mercado hasta la fecha, y cuyas ventas han impulsado a la compañía a una capitalización de mercado de más de 4,5 billones de dólares. Los chips de Nvidia se utilizaron para entrenar los GPT de OpenAI, los grandes modelos de lenguaje utilizados en ChatGPT.
Pero empresas como OpenAI han estado buscando alternativas, y a principios de este mes la startup anunció sus planes de comprar chips de AMD, el segundo mayor fabricante de GPU, y potencialmente adquirir una participación en la compañía. Otras empresas, como Google, Amazon y Microsoft, también están desarrollando sus propios aceleradores de IA para sus servicios en la nube.
Qualcomm afirmó que sus chips se centran en la inferencia, o la ejecución de modelos de IA, en lugar del entrenamiento, que es la forma en que laboratorios como OpenAI crean nuevas capacidades de IA procesando terabytes de datos.
El fabricante de chips afirmó que sus sistemas a escala de rack serían, en última instancia, más económicos de operar para clientes como los proveedores de servicios en la nube, y que un rack utiliza 160 kilovatios, lo que es comparable al alto consumo de energía de algunos racks de GPU de Nvidia.
Malladi afirmó que Qualcomm también vendería sus chips de IA y otros componentes por separado, especialmente a clientes como los hiperescaladores que prefieren diseñar sus propios racks. Añadió que otras empresas de chips de IA, como Nvidia o AMD, podrían incluso convertirse en clientes de algunos componentes de Qualcomm para centros de datos, como su unidad central de procesamiento (CPU).
«Lo que hemos intentado hacer es asegurarnos de que nuestros clientes puedan optar por adquirirlo todo o decir: ‘Voy a combinarlo todo'», declaró Malladi.
La empresa declinó hacer comentarios sobre el precio de los chips, las tarjetas o el rack, ni sobre cuántas NPU podrían instalarse en un solo rack. En mayo, Qualcomm anunció una alianza con Humain, de Arabia Saudí, para suministrar chips de inferencia de IA a los centros de datos de la región. Será cliente de Qualcomm, comprometiéndose a implementar hasta un máximo de sistemas que puedan consumir 200 megavatios de energía.
Qualcomm afirmó que sus chips de IA ofrecen ventajas sobre otros aceleradores en términos de consumo de energía, coste de propiedad y un nuevo enfoque en la gestión de la memoria. Añadió que sus tarjetas de IA admiten 768 gigabytes de memoria, una capacidad superior a la de las ofertas de Nvidia y AMD.

