En este momento estás viendo El diseñador de chips SiFive busca incorporar más núcleos RISC-V en sus chips de IA

El diseñador de chips SiFive busca incorporar más núcleos RISC-V en sus chips de IA

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:septiembre 12, 2025

Cada trimestre, se le pregunta a Jensen Huang, CEO de Nvidia, sobre el creciente número de ASIC personalizados que invaden su imperio de la IA, y siempre minimiza la amenaza, argumentando que las GPU ofrecen una programabilidad superior en un entorno en constante cambio.

Esto no ha impedido que el diseñador de chips SiFive lance diseños de núcleo basados ​​en RISC-V para su uso en todo tipo de aplicaciones, desde dispositivos IoT hasta aceleradores de IA de alta gama, incluyendo las Unidades de Procesamiento Tensor (TPU) de Google y los aceleradores Blackhole de Tenstorrent.

El verano pasado, SiFive reveló que sus diseños de núcleo basados ​​en RISC-V impulsan los chips de cinco de las «7 Magníficas» empresas: Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia y Tesla. Y aunque estamos seguros de que muchas de ellas no están relacionadas con la IA, es comprensible que los analistas sigan preguntando a Huang sobre los ASIC personalizados.

Aunque muchos de ustedes estarán familiarizados con SiFive para Meta y las placas de desarrollo RISC-V de Microsoft, la actividad principal de la compañía es el diseño y la concesión de licencias de propiedad intelectual (PI) de núcleos, similar a la del diseñador británico de chips Arm Holdings. Estas ofertas de propiedad intelectual (PI) son lo que estamos analizando aquí.

Esta semana, en la AI Infra Summit, el diseñador de chips RISC-V presentó su segunda generación de núcleos de inteligencia, que incluye nuevos diseños orientados a aplicaciones de IA de borde, como la detección robótica, así como versiones mejoradas de sus series X200 y X300, y el acelerador de la serie XM.

Aquí tienes un breve resumen de la línea de núcleos Intelligence de segunda generación de SiFive.

Todos estos diseños se basan en una arquitectura de procesador superescalar de ocho etapas y doble emisión en orden, lo que significa, en resumen, que no están diseñados para su uso en una CPU de propósito general como la que alimenta el dispositivo que estás leyendo.

En cambio, la línea Intelligence de SiFive está diseñada para servir como una unidad de control del acelerador (ACU) que evita que los núcleos tensoriales y las unidades de multiplicación-acumulación de matriz (MAC) de sus clientes se falten de datos.

La idea es que, en lugar de invertir recursos en diseñar algo a medida, los clientes de SiFive puedan licenciar su familia Intelligence. Esto es lo que aparentemente han hecho Google, Tenstorrent y varios gigantes tecnológicos.

La clase X100 debuta. Los dos núcleos de inteligencia más recientes de SiFive, el X160 y el X180, están diseñados para aplicaciones de bajo consumo como dispositivos IoT, drones y robótica. El X180 es un núcleo de 64 bits, mientras que el X160 se basa en la arquitectura del conjunto de instrucciones RV32I de 32 bits.

Los dos núcleos de inteligencia más recientes de SiFive son prácticamente idénticos al núcleo de gama baja, y utilizan un conjunto de instrucciones más sencillo de 32 bits.

Los clientes pueden organizarlos en clústeres de hasta cuatro (aunque un chip podría tener varios clústeres de cuatro núcleos). Admiten registros vectoriales de 128 bits y una ruta de datos de 64 bits.

Esto les permite gestionar muchos tipos de datos modernos, como INT8 y, más comúnmente, BF16, lo cual es fundamental cuando se conectan a un acelerador diseñado para ejecutar modelos con esas precisiones.

La comunicación de estos núcleos con dichos aceleradores ha cambiado ligeramente en la segunda generación de SiFive. Además de su Extensión de Interfaz de Coprocesador Vectorial (VCIX), que proporciona acceso de alto ancho de banda a los registros vectoriales del núcleo de la CPU, los componentes de segunda generación del diseñador de chips ahora incorporan la Interfaz de Coprocesador Escalar (SSCI) de SiFive, que proporciona instrucciones RISC-V personalizadas que otorgan a los aceleradores acceso directo a los registros de la CPU.

X200, X300 Gen 2.

Además de los nuevos núcleos, SiFive también está lanzando versiones actualizadas de sus familias de núcleos de procesador X280 y X390.

En comparación con el X280 Gen 2, los núcleos X390 actualizados de SiFive cuentan con ALU vectoriales mucho más robustas.

Al igual que la clase X100, ambos núcleos cuentan con pipelines de ejecución en orden de ocho etapas y pueden organizarse en clústeres de uno, dos o cuatro núcleos, según la aplicación. Al igual que la generación anterior, los núcleos X280 y X390 Gen 2 admiten registros vectoriales de 512 y 1024 bits, respectivamente.

Como recordará, Google utilizó los núcleos X280 de SiFive para gestionar las unidades de multiplicación de matrices (MXU) en sus Unidades de Procesamiento Tensorial en 2022.

Una diferencia clave es que, para la segunda generación de núcleos, SiFive se ha actualizado al conjunto de instrucciones RVA23, que añade compatibilidad de hardware con BF16 y los tipos de datos de microescalado MXFP8 y MXFP4 de OCP. Este último está atrayendo mucha atención últimamente, ya que es la forma en que OpenAI optó por lanzar sus modelos gpt-oss de pesos abiertos.

SiFive también ha optimizado la jerarquía de caché del X280 Gen 2, pasando de una configuración de tres niveles (L1, L2 y L3 compartida) a una más simple y personalizable que elimina el L3 por hasta 1 MB de L2 compartida por clúster de núcleos. La compañía afirma que esta nueva configuración aumenta la utilización y ahorra espacio en la matriz.

En comparación con la generación anterior, los nuevos núcleos X280 presentan una jerarquía de caché mucho más sencilla, con hasta 1 MB de L2 compartido por clúster de núcleos.

En términos de rendimiento, SiFive afirma que su X390 Gen 2, de mayor tamaño, ahora ofrece cuatro veces más capacidad de procesamiento y 32 veces más capacidad de datos que el X280 original, lo que permite una transferencia de datos de hasta 1 TB/s en la configuración del clúster de cuatro núcleos.

SiFive está posicionando el X390 como un núcleo acelerador de IA independiente, probablemente basado en gran medida en sus enormes registros vectoriales, y también como una ACU, una aplicación que también se beneficia de la introducción de la interfaz SSCI que mencionamos anteriormente.

No olvide los aceleradores de IA de SiFive.

Por último, SiFive también ha actualizado la familia XM de aceleradores de IA de protocolo de arranque para utilizar sus núcleos X390 Gen 2. El verano pasado analizamos por primera vez los productos XM de SiFive, que sirven como modelo para construir un acelerador de IA escalable.

Los diseños de aceleradores de IA de SiFive, listos para usar, se han actualizado para utilizar sus núcleos X300 de segunda generación.

Los clústeres XM de segunda generación de SiFive combinan ahora su motor matemático matricial interno con cuatro de sus núcleos X390 actualizados. Según SiFive, cada clúster XM puede ofrecer 64 teraFLOPS de rendimiento FP8 a 2 GHz y puede escalarse para admitir chips con más de 4 petaFLOPS de rendimiento de IA.

Todos estos diseños de núcleos de CPU y aceleradores ya están disponibles para licencia, y se espera que el primer silicio para clientes basado en ellos llegue al mercado en el segundo trimestre de 2026.