Para la mayoría de las personas, y es completamente comprensible, Nvidia sigue siendo sinónimo de GPU y chips de IA. Los semiconductores de la compañía dominan las conversaciones y los titulares sobre centros de datos de IA.
Pero la verdadera ventaja competitiva de Nvidia, y uso esta palabra a propósito, es la combinación de su oferta de semiconductores con una pila de software cada vez más completa. Dicho de otra manera, Nvidia ha construido una plataforma de IA integral que incluye:
- CUDA: la plataforma de programación de GPU fundamental de la compañía.
- cuDNN: bibliotecas especializadas aceleradas por GPU para el aprendizaje profundo.
- NeMo: un marco de trabajo de alto nivel para entrenar e implementar modelos de lenguaje grandes y multimodales.
Ahora, la familia de modelos abiertos Nemotron convierte la capacidad de cómputo bruta en inteligencia utilizable. Esto es muy importante. Nemotron 3 es la última expresión de esta estrategia, y es tan relevante para la posición de Nvidia en el sector de la IA a largo plazo como cualquier lanzamiento de una nueva GPU.
Por qué Nemotron es importante para la pila de Nvidia.
A Nvidia le gusta recordar al mercado que los modelos de vanguardia no dependen solo del hardware. En su reciente blog sobre GPT-5.2 de OpenAI, la compañía enfatizó que los modelos líderes dependen de «aceleradores de clase mundial, redes avanzadas y una pila de software totalmente optimizada».
Puede que las GPU GB200 y Blackwell de Nvidia acaparen la atención, pero es el software lo que hace que decenas de miles de GPU se comporten como una única supercomputadora de IA coherente.
Nemotron se sitúa precisamente en esa capa, entre la infraestructura y las aplicaciones. Comenzó como una forma de impulsar el ecosistema de código abierto con modelos sólidos y razonablemente eficientes.
En una llamada con analistas del sector, Kari Briski, vicepresidenta de software de IA generativa para empresas de Nvidia, explicó la motivación de forma muy sencilla.
Los modelos abiertos aceleran la innovación porque permiten que «investigadores de todo el mundo se basen en el conocimiento compartido» y permiten que cualquiera, no solo las grandes empresas tecnológicas, ajuste los sistemas para sus propios ámbitos.
En 2025, Nvidia fue el principal contribuyente de modelos y conjuntos de datos abiertos en Hugging Face, con aproximadamente 650 modelos y 250 conjuntos de datos. Este punto es relevante porque demuestra que Nvidia no solo vende GPU: está impulsando activamente el ecosistema abierto con componentes básicos de alta calidad, lo que atrae a investigadores, startups y empresas a su órbita de software y convierte la plataforma de Nvidia en el lugar predeterminado donde se desarrolla el nuevo trabajo en IA.
En ese sentido, Nemotron se está convirtiendo en una marca que organiza esas contribuciones en una hoja de ruta en lugar de una simple colección de elementos dispersos. El anuncio de Nemotron 3 marca el punto en el que esa hoja de ruta se vuelve mucho más ambiciosa. Briski lo describió como “la familia de modelos abiertos más eficiente con una precisión líder para la creación de aplicaciones de IA con capacidad de agencia”.
El anuncio principal es Nemotron 3 Nano, un modelo de mezcla de expertos con aproximadamente 30 mil millones de parámetros, de los cuales solo entre 3 y 4 mil millones están activos por token. Esta arquitectura le confiere la capacidad de procesamiento de un modelo «pequeño», al tiempo que le permite competir en calidad de razonamiento con sistemas densos mucho más grandes.
En esencia, Nemotron 3 combina tres ideas que se han vuelto fundamentales para los modelos de razonamiento modernos.
Primero, una arquitectura híbrida Mamba-Transformer que combina capas de atención con modelado de secuencias de espacio de estados para reducir la memoria y el procesamiento, especialmente para contextos largos.
Segundo, una arquitectura de mezcla de expertos que activa solo un pequeño subconjunto de parámetros para cada token.
Tercero, una ventana de contexto que abarca aproximadamente un millón de tokens, lo que permite que el modelo opere con bases de código completas, especificaciones técnicas extensas y conversaciones de varios días en una sola pasada.
Lo que Nemotron significa para los centros de datos.
Porque la nueva ley de escalado ya no se basa solo en «más GPU, mayor preentrenamiento». Briski señala que ahora hay tres factores clave: «preentrenamiento, postentrenamiento y lo que llamamos pensamiento a largo plazo».
El pensamiento a largo plazo implica procesamiento en tiempo de prueba y autorreflexión, a menudo con la colaboración de múltiples agentes.
Esto dispara el uso de tokens y, por extensión, el costo de la inferencia.
La principal ventaja de Nemotron 3 es que proporciona un razonamiento más profundo con una relación tokens-precisión mucho mejor que los modelos abiertos anteriores.
Pero hay más. Nvidia está lanzando Nemotron 3 junto con los entornos de aprendizaje por refuerzo (RL) exactos, los datos y las bibliotecas que utilizó internamente.
Briski enfatizó que «Nvidia es la primera en lanzar entornos de RL de última generación de código abierto junto con nuestros modelos, bibliotecas y datos abiertos».
Diez entornos de entrenamiento iniciales cubren temas como programación competitiva, matemáticas y planificación práctica.
Permiten a las empresas replicar el ciclo de entrenamiento de Nvidia: simular agentes en entornos realistas, evaluar su comportamiento y retroalimentar esa información al modelo. Para los equipos que de otro modo pasarían meses desarrollando una infraestructura de aprendizaje por refuerzo personalizada, esto representa una importante ventaja.
En cuanto a los datos, Nemotron 3 se basa en lo que Nvidia denomina una transición de los «macrodatos» a los «datos inteligentes y mejorados».
La compañía está lanzando nuevos conjuntos de datos de preentrenamiento que han sido limpiados y reescritos sintéticamente, representando más de 10 billones de tokens de texto de mayor calidad, además de un conjunto de ajuste de instrucciones con 18 millones de ejemplos, creado a partir de modelos con licencia permisiva.
Nvidia afirma que se invirtieron más de un millón de horas de H100 en la generación y curación de estos datos.
El resultado, según Briski, es un aumento del 40% en la puntuación de un «índice de inteligencia» independiente, pasando de Nemotron Nano 2 a Nemotron 3, con mejoras notables en el seguimiento de instrucciones y la concisión.
Nemotron también se presenta en lo que Nvidia denomina «planos». Se trata de pilas de agentes de referencia para asistentes de investigación avanzada, búsqueda y resumen de vídeo, y canalizaciones de generación aumentada por recuperación (RAG) altamente optimizadas para empresas, que muestran cómo se integran los modelos, las incrustaciones, la ingesta multimodal y los componentes de recuperación.
Para un CIO, esto es más importante que un gráfico comparativo. Convierte a Nemotron de un artefacto de investigación en una plantilla que se puede implementar con los propios datos, en los propios clústeres o en la nube de preferencia.
Todo esto encaja perfectamente con la propuesta integral de Nvidia. La compañía ya impulsa la mayor parte del entrenamiento de modelos de vanguardia, desde GPT-5.2 de OpenAI hasta generadores de vídeo como Runway Gen-4.5, en plataformas que van desde Hopper hasta GB200 y Blackwell.
Sus GPU lideran todas las categorías de MLPerf Training, y los sistemas Blackwell ya están disponibles como opciones estándar en AWS, Google Cloud, Azure, Oracle y otros.
Nemotron 3 proporciona a esa infraestructura un «modelo propio» y una cadena de herramientas optimizadas para el silicio, las redes y los compiladores de Nvidia.
Implicaciones competitivas.
Entonces, ¿Nemotron 3 mantiene a Nvidia a la cabeza frente a AMD y el resto de la competencia?.
Sin duda, fortalece la posición de la compañía. En el ámbito del hardware, AMD se ha consolidado como un actor importante en el silicio para IA en los últimos años. Sus aceleradores Instinct MI300 y la serie MI350 más reciente, respaldados por la pila de software abierto ROCm, ahora ejecutan LLM como Llama-3 en los principales proveedores de la nube y, en algunas cargas de trabajo, ofrecen una economía de inferencia competitiva o superior.
Además, AMD también está implementando sistemas Helios y de clase MI450 de rack completo para competir con las ofertas de Nvidia a escala de rack. Lo que diferencia a Nvidia con Nemotron 3 es la profundidad y la apertura del ecosistema de modelos y herramientas que se ejecuta en sus chips.
Por supuesto, AMD cuenta con ROCm, un sólido trabajo de compilación y un creciente soporte de modelos. Aun así, todavía no ofrece un paquete integrado equivalente de modelos abiertos, entornos de aprendizaje por refuerzo (RL), datos seleccionados y planos de implementación bajo una sola marca.
Para las empresas que intentan crear «sistemas de modelos» y flujos de trabajo basados en agentes, este tipo de conjunto de herramientas, aunque dogmático, pero abierto, resulta extremadamente atractivo.
Reduce el tiempo de obtención de valor y, sutilmente, te vincula a la forma de trabajar de Nvidia.
Sin embargo, Nemotron 3 no es una ventaja permanente. Las arquitecturas que utiliza —capas híbridas Mamba-Transformer, mezcla de expertos, contexto amplio y razonamiento basado en aprendizaje por refuerzo— se comprenden cada vez mejor en la comunidad de investigación en general.
Por supuesto, nada impide que AMD u otros entrenen modelos abiertos similares y los optimicen para sus propios aceleradores. Además, dado que Nemotron es de código abierto, en teoría, puede ejecutarse en hardware que no sea de Nvidia, como ROCm y otras plataformas consolidadas, incluso si se pierde parte de la optimización integral de Nvidia.
Lo que Nemotron significa para la estrategia de IA de Nvidia.
La forma correcta de ver Nemotron 3, entonces, es como otro impulso al ciclo virtuoso de Nvidia, en lugar de un golpe definitivo. Aumenta el valor de las GPU de la compañía al proporcionar a los desarrolladores modelos eficientes y transparentes diseñados para la IA basada en agentes.
Hace que su plataforma de software sea más atractiva al incluir las bibliotecas, los entornos de aprendizaje por refuerzo y los datos necesarios para especializar esos modelos.
Además, alinea aún más a Nvidia con la comunidad de IA de código abierto, que ahora impulsa gran parte de la innovación en herramientas y agentes.
Pero, ¿será suficiente para que Nvidia se mantenga a la cabeza a medida que el mercado de centros de datos de IA experimenta un crecimiento exponencial?. A corto plazo, creo que la respuesta es sí.
Nemotron 3 eleva el listón de lo que significa ser «abierto» y «listo para empresas» en el ámbito de los modelos, y lo hace de una manera que aprovecha las fortalezas de Nvidia.
A largo plazo, su verdadero impacto puede ser más cultural que técnico.
Al comprometerse con una hoja de ruta para Nemotron, sus propios métodos de entrenamiento y tratar los modelos como bibliotecas que se versionan y distribuyen, Nvidia está intentando definir cómo se debe desarrollar el software de IA de alto nivel.
Para los clientes que deciden dónde invertir miles de millones de dólares en infraestructura de IA, esta estrategia es tan crucial como la potencia de procesamiento bruta (TOPS).

