El Día del Analista Financiero de AMD 2025, celebrado el martes, no se centró en superar a Nvidia en velocidad y rendimiento. Su objetivo fue replantear la percepción que inversores, clientes y socios tienen del papel de AMD en la era de la IA. La compañía se presentó no como un competidor de nicho ni como una segunda opción oportunista, sino como un actor estructuralmente importante y con una plataforma escalable en un mercado de computación que actualmente valora en un billón de dólares.
Este reposicionamiento se plasmó en tres temas clave: Primero, la IA para centros de datos se sitúa ahora firmemente en el centro del modelo de crecimiento de AMD, y no como un complemento de las CPU o los videojuegos.
Segundo, su ventaja competitiva se define como amplitud y apertura: CPU, GPU, DPU, FPGA, NPU, interconexión, empaquetado y sistemas, unidos por software abierto y estándares de la industria.
Tercero, AMD hace hincapié en su capacidad de ejecución, argumentando que la disciplina operativa que transformó a la compañía durante la última década constituye ahora una ventaja duradera y replicable.
En efecto, el Día del Analista Financiero sirvió como declaración de la CEO Lisa Su y su equipo directivo de que han superado con éxito transiciones significativas en el pasado, que han cumplido con esos compromisos y que ahora están en posición de liderar, no de seguir, el próximo capítulo de la computación acelerada y la IA.
Competir con Nvidia mediante la apertura y la escalabilidad.
Un tema central del evento fue la decisión de AMD de competir con Nvidia sin intentar convertirse en Nvidia. La dirección no pretendió que hoy en día exista igualdad de condiciones; Nvidia aún cuenta con la pila de software de IA más completa y una gran presencia en el mercado. En cambio, AMD hizo hincapié en una propuesta de valor a nivel de sistema y de ecosistema.
Su subrayó que AMD ahora ofrece «la cartera más amplia de motores y tecnologías de computación líderes» y está «en una posición única para impulsar la próxima generación de computación de alto rendimiento e IA».
Este mensaje es importante porque cambia el enfoque de los aceleradores aislados a las fábricas de IA completas. AMD comercializa las CPU EPYC, que ya constituyen una parte importante de las necesidades de infraestructura de hiperescaladores y empresas. AMD está aumentando la producción de aceleradores Instinct anualmente e integrando DPU Pensando y redes avanzadas para una transferencia de datos eficiente.
AMD está extendiendo Infinity Fabric y el empaquetado avanzado a toda la pila tecnológica, y ofrece sistemas a escala de rack que se integran en entornos existentes sin obligar a los clientes a adoptar un ecosistema cerrado.
Este enfoque competitivo es deliberado: mientras Nvidia lidera con una pila tecnológica propietaria e integrada verticalmente, AMD apuesta a que un número creciente de hiperescaladores, iniciativas de IA soberanas y grandes empresas buscan una segunda plataforma de alto rendimiento, modular, basada en estándares y resistente a la dependencia de un solo proveedor.
AMD no busca clonar CUDA. Busca el éxito mediante la apertura, la interoperabilidad y una escalabilidad fiable.
La IA en el centro de datos como motor de crecimiento.
La IA en el centro de datos se presentó como el motor económico y estratégico de esta plataforma. Los objetivos financieros a largo plazo de AMD evidencian la importancia que ha adquirido este segmento. La dirección presentó ambiciones de un sólido crecimiento de los ingresos a nivel corporativo durante varios años, con una trayectoria aún más acelerada para el centro de datos y una contribución excepcional de los aceleradores y sistemas de IA.
Estos objetivos parten del supuesto de que EPYC continúa ganando cuota de mercado en el sector de las CPU para servidores, que los aceleradores Instinct y las soluciones a nivel de rack se consolidan como negocios multimillonarios anuales, y que los compradores de infraestructura de IA consideran cada vez más a AMD como un pilar fundamental junto a Nvidia.
Este punto no se plantea como un escenario puramente especulativo. Se presenta como una extensión de la demanda palpable de hiperescaladores, empresas nativas de IA y gobiernos que ya están implementando clústeres basados en AMD o que manifiestan explícitamente la necesidad de estrategias de IA multivendor.
Al vincular los ambiciosos objetivos de crecimiento y margen directamente con la IA para centros de datos, AMD deja claro a inversores y clientes que invertirá anticipándose a la demanda, garantizará el suministro, se alineará con los estándares abiertos y se comprometerá a largo plazo a ser una de las plataformas informáticas fundamentales de la era de la IA.
La amplitud de la cartera de productos de AMD es el factor estructural que respalda esa afirmación. A lo largo del día, la compañía reforzó una narrativa general clara y concisa.
Supongamos que está creando una infraestructura centrada en la IA, desde la nube hasta el borde y el punto final. En ese caso, AMD puede cubrir la mayor parte de sus necesidades de silicio y muchos de sus requisitos de sistema dentro de un marco tecnológico coherente.
En el ámbito de los centros de datos, las CPU EPYC siguen siendo una de sus principales fortalezas, con una sólida adopción entre los principales proveedores de nube y empresas que buscan un alto rendimiento por vatio y ventajas en el coste total.
Las GPU Instinct han evolucionado de ser una aspiración a estar impulsadas por una hoja de ruta, con sucesivas generaciones que mejoran el rendimiento, la memoria y la eficiencia a un ritmo predecible.
Las redes, la interconexión y el empaquetado ya no son consideraciones secundarias, sino elementos diferenciadores integrados que permiten a AMD escalar los sistemas de IA sin ceder valor a terceros.
Sobre esta pila de hardware se encuentra ROCm y una visión de código abierto más amplia destinada a reducir la brecha histórica con Nvidia, facilitando la adopción de las plataformas AMD con marcos y herramientas convencionales.
Si bien este proceso continúa, AMD señaló la creciente participación de desarrolladores y clientes como prueba de que ROCm y su ecosistema están ganando terreno.
Ampliando la IA a sistemas adaptativos e integrados.
Una extensión crucial de esta historia es el papel de los productos adaptativos e integrados. Desde la adquisición de Xilinx y Pensando, AMD ha consolidado la «IA física» como parte fundamental de su ventaja competitiva a largo plazo.
En este ámbito, la compañía se centra en la robótica, los sistemas industriales, la automoción, las comunicaciones y otros entornos donde la IA, el control y la conectividad deben estar estrechamente integrados, ser energéticamente eficientes y de larga duración.
Se trata de un dominio donde la flexibilidad, la seguridad, el determinismo y la personalización son tan importantes como el rendimiento máximo. La combinación de FPGA, SoC adaptativos, CPU integradas y capacidades semicustomizadas de AMD le permite diseñar plataformas de silicio que se pueden ajustar a las cargas de trabajo de los clientes de maneras que los aceleradores estándar no siempre pueden igualar.
Nvidia también está presente en este sector, pero la cartera de AMD le permite afirmar que puede dar soporte a un continuo de implementaciones de IA, desde clústeres de entrenamiento masivos hasta nodos perimetrales críticos para la seguridad y específicos del dominio, utilizando propiedad intelectual compartida y componentes tecnológicos consistentes.
Esa presencia horizontal en centros de datos, clientes, videojuegos, sistemas integrados y soluciones semicustomizadas es lo que da credibilidad a la narrativa del billón de dólares en computación. No se trata solo de una estrategia; es una forma de amortizar los costes de I+D, reutilizar tecnologías clave como Infinity Fabric y el empaquetado, y posicionar a AMD como un socio estratégico a largo plazo en lugar de un simple proveedor de productos puntuales.
Ejecución, riesgos y el camino hacia un liderazgo duradero.
Si bien la infraestructura de IA fue el tema central, AMD se cuidó de no presentar a los clientes y los videojuegos como distracciones. En cambio, los presentó como pilares complementarios que refuerzan la marca, la rentabilidad y la narrativa de la IA.
En el ámbito de los clientes, AMD destacó su impulso en las PC con IA impulsadas por Ryzen AI, junto con una amplia gama de diseños comerciales y para el consumidor. Esto es importante por dos razones:
- Integrar la IA en los dispositivos en los casos de uso cotidianos, respaldando el modelo de «entrenamiento en el centro de datos e inferencia en el borde»; y
- Fortalecer la posición de AMD ante los fabricantes de equipos originales (OEM) y los compradores de TI, quienes consideran cada vez más las capacidades de IA como un criterio de selección fundamental.
En el sector de los videojuegos, AMD señaló su presencia en consolas, GPU discretas e infraestructura de juegos en la nube, enfatizando que actualmente existen más de mil millones de dispositivos en el mercado que utilizan su tecnología. Esta base instalada le brinda a AMD un canal para nuevas experiencias mejoradas con IA y mantiene su marca asociada con el rendimiento y la innovación en el ámbito del consumidor.
En conjunto, los clientes y los videojuegos diversifican los ingresos, atenúan la ciclicidad en cualquier segmento y contribuyen a una percepción más amplia de AMD como una franquicia equilibrada y resiliente, en lugar de una empresa centrada en un solo producto de IA.
Todo ello se fundamentó en la contundente afirmación de que AMD se ha ganado la confianza en su capacidad de ejecución. Lisa Su y su equipo destacaron la transformación de la compañía durante la última década: de un competidor de CPU en dificultades a una empresa con productos líderes, sólidas relaciones con los clientes y un balance general robusto.
Subrayaron la entrega constante de las hojas de ruta de CPU basadas en Zen por parte de AMD, el uso temprano y eficaz de chiplets y empaquetado avanzado, y la exitosa integración de adquisiciones importantes como prueba de que AMD puede gestionar la complejidad a gran escala. Su reforzó el mensaje cultural de que cuando AMD se compromete con una hoja de ruta, la cumple.
El modelo financiero actualizado, con su énfasis en márgenes atractivos, inversión disciplinada y un sólido flujo de caja libre, se presenta como la continuación lógica de esa trayectoria, en lugar de un acto de fe. Otros ejecutivos se hicieron eco de esta idea, recalcando que el capital se destinará primero al liderazgo tecnológico y al suministro para impulsar el crecimiento de la IA, sin dejar de lado la rentabilidad para los accionistas y las fusiones y adquisiciones estratégicas.
De forma sutil pero fundamental, la empresa invita a inversores y socios a ver a AMD no solo como un proveedor de chips históricamente cíclico, sino como una empresa de plataformas operativamente madura capaz de planificar, financiar y ejecutar estrategias de IA plurianuales.
Al mismo tiempo, un análisis de alto nivel creíble debe reconocer dónde se está poniendo a prueba la narrativa.
El ecosistema de software, las herramientas y la lealtad de los desarrolladores de Nvidia siguen siendo su ventaja competitiva más sólida. El enfoque abierto de AMD con ROCm y las contribuciones a la rama principal se alinea filosóficamente con la forma en que muchos hiperescaladores y comunidades de código abierto desean construir. Sin embargo, requiere una atención constante al rendimiento, la estabilidad, la compatibilidad con frameworks y la facilidad de migración.
Los objetivos que AMD se ha fijado también dependen de una estrecha coordinación con sus socios de fundición en nodos de proceso avanzados, una gestión sólida de la cadena de suministro y un entorno geopolítico que no interrumpa gravemente la disponibilidad de componentes de IA ni los patrones de demanda.
AMD está entrando en una fase en la que debe escalar simultáneamente múltiples líneas de productos complejos: EPYC, múltiples generaciones de Instinct, SoC adaptativos, DPU, PC con IA y proyectos de semiconductores personalizados.
El riesgo no reside en la falta de oportunidades, sino en la expansión estratégica y operativa. La respuesta de AMD es que la propiedad intelectual compartida, las plataformas comunes, el diseño modular y una mayor integración entre las distintas áreas de negocio reducen esta complejidad en lugar de aumentarla. Si esto se cumple en la práctica se verá rápidamente reflejado en la ejecución de productos, los proyectos ganados y los márgenes.
La estrategia de AMD para liderar la era de la IA.
Desde esta perspectiva general, el Día del Analista Financiero dejó claro que AMD pretende ser un referente junto a Nvidia en la era de la IA, y no simplemente un proveedor alternativo de GPU.
La empresa compite en términos de apertura, amplitud y valor total del sistema. Está apostando fuerte por la IA para centros de datos como motor de crecimiento, reforzándola con soluciones para clientes y videojuegos, y extendiéndola a la IA física e integrada. AMD argumenta que su pila tecnológica unificada y la disciplinada asignación de capital permiten una innovación sostenida sin sacrificar la solidez financiera.
Su propuesta a clientes y socios es clara: AMD ofrece una hoja de ruta escalable y multigeneracional, un ecosistema robusto y en expansión, interoperabilidad con los estándares abiertos emergentes y una ventaja real frente a la dependencia de tecnologías propietarias. Además, la propuesta para los inversores es que esta estrategia puede traducirse en un crecimiento sostenido, márgenes sólidos y una posición defendible en los segmentos de mayor valor del mercado de la computación.
Dado su desempeño durante la última década, AMD se ha ganado el derecho a defender esta postura. Los próximos años, medidos en racks de IA desplegados, adopción de ROCm, cuota de mercado de EPYC, desarrollo de nuevos aceleradores y sistemas, y coherencia con su modelo financiero, determinarán si logra convertir plenamente esa credibilidad en un liderazgo duradero a nivel de sistema en el panorama de la infraestructura de IA.
En resumen, esta no es la AMD de 1995.

