Recientemente, los últimos resultados de la investigación sobre «chips de computación totalmente ópticos» del equipo del académico Zhang Wenjun, de la Escuela de Circuitos Integrados de la Universidad Jiao Tong de Shanghái, se publicaron en línea en *Science* y recibieron una destacada recomendación del departamento editorial. En este artículo, titulado «Chip totalmente óptico para la generación visual semántica inteligente a gran escala», el equipo de investigación propuso el chip de generación semántica a gran escala totalmente óptico «LightGen», considerado clave para desbloquear las demandas de potencia computacional de la inteligencia artificial (IA), que son casi un agujero negro. Su velocidad de computación y eficiencia energética en ciertas tareas específicas son al menos dos órdenes de magnitud superiores a las de los chips digitales de gama alta (como el chip Nvidia A100).
El sitio web oficial del Departamento de Circuitos Integrados de la Universidad Jiao Tong de Shanghái elogió este logro: LightGen «abre un nuevo camino» para que los chips informáticos de próxima generación respalden la inteligencia artificial de vanguardia y «proporciona una nueva dirección de investigación» para explorar una computación inteligente generativa más rápida y energéticamente eficiente.
Con el respaldo de revistas prestigiosas, la certificación oficial y la amplia cobertura mediática, los comentarios sobre «ataques de reducción dimensional» y «saltos de fase» se han vuelto comunes. Sin embargo, ¿puede un chip que aún solo existe en un artículo de investigación satisfacer realmente las expectativas de los usuarios sobre los «chips informáticos de próxima generación»? ¿Puede realmente materializarse su «ataque de reducción dimensional» contra chips digitales de primera línea en tareas específicas?
Para abordar estas preguntas, el autor del artículo, el profesor Zhai Guangtao de la Universidad Jiao Tong de Shanghái, concedió recientemente una entrevista exclusiva al *China Science Daily*.

¿Por qué los chips de computación óptica tienen dificultades para «llevar la carga»? Tres obstáculos importantes.
*China Science Daily*: Explique la diferencia entre los chips de computación óptica y los chips electrónicos en términos sencillos.
Zhai Guangtao:
Se puede entender a partir de la diferencia en los métodos de computación. Los chips electrónicos utilizan señales eléctricas como portadoras de información y se basan principalmente en la conmutación de transistores para su computación. Cuanto mayor sea la escala, más fácilmente se ven obstaculizados por problemas prácticos como el consumo de energía, la latencia y la generación de calor. La computación óptica codifica la información en luz y realiza una gran cantidad de cálculos en paralelo mediante la propagación del campo luminoso, lo que ofrece importantes ventajas potenciales en velocidad y consumo de energía. Esto se puede comparar con una analogía: los chips eléctricos son como teléfonos de cable de cobre que transmiten mensajes, utilizando señales eléctricas como portadoras; mientras que los chips de computación óptica son como la banda ancha de fibra óptica, que ofrece velocidades más rápidas y un menor consumo de energía.
Por ejemplo, nuestros ojos pueden entenderse, a grandes rasgos, como computación óptica simple: pueden capturar la imagen de un objeto desde un punto determinado en la retina. Los chips de computación óptica que hemos desarrollado son mucho más complejos y utilizan información como la amplitud, la fase, la frecuencia y la polarización de la luz para realizar tareas más complejas, como la IA a gran escala y la computación de IA de borde de alta velocidad.
*China Science Daily*: ¿Por qué los chips ópticos tienen una mayor ventaja sobre los chips electrónicos tradicionales en las tareas de computación de IA?.
Zhai Guangtao:
En primer lugar, las propiedades físicas de los fotones son inherentemente adecuadas para los requisitos de computación de «alta velocidad y bajo consumo» de la IA. La velocidad de propagación de los fotones es la velocidad de la luz (aproximadamente 3 × 10⁻⁶ m/s), mientras que la velocidad de migración de los electrones en los chips es solo una milésima de la velocidad de la luz. La computación de IA (especialmente las tareas de generación) requiere la transmisión y el cálculo de grandes cantidades de datos, y la propagación a alta velocidad de los fotones puede reducir significativamente los retrasos en la transferencia de datos. Mientras tanto, los electrones generan calor debido a la resistencia al moverse a través de conductores, una de las principales razones del alto consumo energético de los chips electrónicos (p. ej., las GPU requieren grandes sistemas de refrigeración); los fotones, en cambio, prácticamente no experimentan pérdida de energía durante su propagación.
En segundo lugar, el núcleo de los modelos de IA (especialmente la IA generativa) es la computación paralela masiva. Por ejemplo, procesar una imagen de 512×512 píxeles requiere la extracción simultánea de características y operaciones matriciales en cientos de miles de píxeles. Los chips electrónicos, limitados por la arquitectura de von Neumann, requieren la transferencia continua de datos entre la memoria y la unidad de procesamiento, lo que a menudo limita el paralelismo debido a la arquitectura del hardware. Sin embargo, los fotones pueden propagarse de forma independiente a través de múltiples canales, lo que reduce la necesidad de procesamiento por lotes. Los chips de computación óptica tienen una mayor ventaja potencial en paralelismo en comparación con los chips electrónicos.
Además, la ventaja de los chips de computación óptica reside en que las propiedades físicas de los fotones son altamente compatibles con los requisitos básicos de la computación de IA: la IA requiere paralelismo de alta velocidad, bajo consumo de energía y alta densidad de computación, y las características de los fotones —propagación a la velocidad de la luz, pérdidas extremadamente bajas y paralelismo natural— se ajustan perfectamente a estos requisitos. Los chips electrónicos tradicionales, limitados por el retardo en la transmisión de la señal eléctrica, las restricciones de consumo de energía y generación de calor, y los límites de integración, tienen dificultades para superar estas limitaciones. Por ello, los chips de computación óptica pueden demostrar ventajas de rendimiento de órdenes de magnitud en la computación de IA.
*China Science Daily*: Dadas las ventajas naturales de los chips ópticos en términos de velocidad y consumo de energía, ¿por qué no han podido desempeñar un papel destacado en los chips de computación en el pasado?.
Zhai Guangtao:
En los últimos años, los modelos a gran escala y los modelos generativos se han desarrollado rápidamente. Con el aumento significativo de la escala de los modelos, la presión de las demandas de potencia de computación y consumo de energía se ha acentuado. El ritmo de crecimiento del rendimiento de las arquitecturas de chips tradicionales ha ampliado la brecha con estas demandas, por lo que se ha comenzado a prestar atención a nuevos paradigmas informáticos.
En este contexto, se han mencionado repetidamente nuevas arquitecturas como la computación óptica. Sin embargo, los chips informáticos ópticos tradicionales se limitan principalmente a tareas de clasificación a pequeña escala; una vez que se introduce la conexión en cascada o la multiplexación optoelectrónica, la velocidad se reduce y se vuelve aún más difícil demostrar ventajas de velocidad y eficiencia energética de extremo a extremo en tareas generativas complejas.
En otras palabras, la razón por la que los chips informáticos ópticos no se han generalizado ni se han convertido en chips informáticos esenciales en el pasado se debe esencialmente a la superposición de tres obstáculos principales: la escala de integración no puede soportar la potencia de cálculo, los cambios dimensionales no se pueden adaptar a la tarea y los algoritmos de entrenamiento no pueden cumplir los requisitos. Estos tres problemas principales limitan las ventajas de «alta velocidad y bajo consumo» de la computación fotónica a tareas sencillas de laboratorio, impidiendo que se transformen en potencia de cálculo real para la IA a gran escala. En última instancia, permanece «marginalizada» y no puede «asumir responsabilidades importantes».

Respuesta a la crítica de «Superando a Nvidia»: «Comprendiendo la actitud cautelosa del mundo exterior»
*China Science Daily*: ¿Qué avances ha logrado su equipo para abordar los obstáculos de los chips de computación óptica que mencionó anteriormente?.
Zhai Guangtao:
Lo más destacado del artículo es que supera simultáneamente tres obstáculos reconocidos en el campo: la integración de millones de neuronas ópticas, la conversión dimensional totalmente óptica y los algoritmos de entrenamiento para chips ópticos sin una verdad fundamental predefinida.
Adoptamos tecnología de metasuperficie difractiva altamente integrada y, mediante el diseño estructural de grabado profundo a nanoescala de metasuperficies multicapa para lograr un control preciso de la luz, integramos con éxito millones de neuronas fotónicas en el chip, lo que solucionó el problema de la gran cantidad de neuronas necesarias para las tareas generativas.
Al mismo tiempo, el equipo también desarrolló un algoritmo de entrenamiento específicamente diseñado para sistemas de computación fotónica generativa. Este algoritmo no depende de una verdad fundamental predefinida, lo que resuelve el problema de cómo entrenar chips fotónicos generativos.
*China Science Daily*: El artículo menciona que LightGen supera ampliamente a la GPU NVIDIA A100 en velocidad de computación de extremo a extremo y eficiencia energética. Algunos argumentan que comparar un chip fotónico, que aún no se comercializa, con una GPU madura tiene poca relevancia, y que sus ventajas actuales son más teóricas que prácticas, sin demostrar su eficacia en la industria. ¿Cuál es su evaluación y la de su equipo al respecto?.
Zhai Guangtao:
Entendemos la cautela en este debate. Los chips fotónicos aún se encuentran en la etapa de transición de la verificación experimental a un sistema más maduro, y es normal que quienes no lo utilizan sean más cautelosos al compararlos con GPU maduras.
Nuestro artículo utiliza un enfoque de medición directa del tiempo y el consumo energético de extremo a extremo: compara la velocidad y la eficiencia energética a nivel de sistema, logrando una calidad de generación similar a la de las redes neuronales electrónicas de vanguardia. Es importante destacar que las tareas generativas a gran escala son inherentemente lentas y particularmente sensibles a la latencia y el consumo energético de extremo a extremo. Muchos escenarios reales se ven limitados por estos dos factores, por lo que determinar si los chips informáticos de próxima generación pueden soportar eficazmente dichas tareas es de gran importancia práctica.
Desde esta perspectiva, los resultados del artículo demuestran la viabilidad y el potencial del enfoque totalmente óptico para tareas generativas a gran escala de forma integral. También ilustra la importancia de superar varios desafíos clave para la implementación de redes generativas a gran escala en un chip totalmente óptico, lo que proporciona un camino sostenible para los chips informáticos de próxima generación hacia la computación inteligente generativa.
*China Science Daily*: En los últimos años, el campo de los chips fotónicos ha dado a menudo la impresión de «mucho ruido y pocas nueces». ¿Qué opina al respecto?.
Zhai Guangtao:
Entendemos que, en el proceso de investigación de vanguardia que pasa del concepto a sistemas verificables y luego a sistemas utilizables, existirá la preocupación de que se trate de «mucho ruido y pocas nueces». La trayectoria de los chips fotónicos se ha debatido repetidamente en el pasado, principalmente porque muchos chips de computación totalmente ópticos siguen centrados en tareas categorizadas a pequeña escala. Para tareas complejas, las ventajas de velocidad y eficiencia energética de la cascada o multiplexación optoelectrónica se hacen más evidentes, y aún existe una brecha que superar en las tareas generativas a gran escala.
Sin embargo, trabajos con visión de futuro como LightGen son innovadores, ya que amplían la aplicabilidad de los chips totalmente ópticos a las redes neuronales generativas a gran escala. Esperamos analizar su valor desde una perspectiva a largo plazo.
Chips de IA generativa totalmente ópticos: No es una moda pasajera.
*China Science Daily*: ¿Qué problema resuelve LightGen y cuál es su mayor importancia práctica?.
Zhai Guangtao:
A juzgar por el ritmo de desarrollo de los modelos a gran escala en los últimos años, sus capacidades mejoran continuamente y sus aplicaciones se expanden rápidamente tanto a la producción como a la vida cotidiana. A esto se suma la creciente presión sobre la latencia de extremo a extremo y el consumo de energía que generan los modelos a gran escala. Muchas tareas generativas son muy sensibles a estos dos puntos y, como resultado, suelen estar limitadas.
En este contexto, el mundo académico y la industria están prestando mayor atención a los chips informáticos de próxima generación. La demanda principal es clara: los chips deben ser capaces de realizar tareas necesarias en el mundo real, especialmente las relacionadas con los modelos generativos a gran escala.
LightGen se centra precisamente en este nivel: ofrece una nueva vía para la computación inteligente generativa a gran escala, acercando la próxima generación de chips informáticos a las necesidades reales de la inteligencia artificial de vanguardia, a la vez que amplía nuevas líneas de investigación para una computación inteligente generativa más rápida y energéticamente eficiente.
*China Science Daily*: ¿Cómo se les ocurrió esta solución? ¿Cuál fue el aspecto más difícil de la investigación?.
Zhai Guangtao:
Ya en 2019, nuestro profesor adjunto Chen Yitong (primer autor de este artículo) comenzó a considerar cómo implementar modelos generativos utilizando tecnología totalmente óptica y publicó la primera red generativa totalmente óptica del mundo en Science Advances. En ese momento, los modelos generativos populares aún no habían captado la atención del público.

A medida que avanzábamos, descubrimos que el verdadero desafío residía en si los chips informáticos de próxima generación podían realizar las tareas requeridas en el mundo real, especialmente los modelos generativos a gran escala, que son muy sensibles a la latencia de extremo a extremo y al consumo de energía.
Centrándonos en el desafío reconocido de «habilitar chips informáticos ópticos de próxima generación para que admitan modelos generativos complejos», avanzamos de forma constante, desarrollando finalmente LightGen, el chip de generación semántica a gran escala totalmente óptico, el primer chip de IA generativa totalmente óptico a gran escala del mundo.
Este proceso no fue una inspiración repentina. Desglosamos el problema y lo resolvimos paso a paso: primero identificamos los cuellos de botella clave, luego refinamos el diseño repetidamente, encontrando numerosos obstáculos en el proceso y, finalmente, iteramos gradualmente hasta alcanzar los resultados actuales.
*China Science Daily*: ¿En qué se diferencian sus chips de algunos chips de computación óptica anteriores?.
Zhai Guangtao:
Anteriormente, muchos chips de computación óptica se limitaban principalmente a tareas de clasificación a pequeña escala. La conexión en cascada o multiplexación óptica reducía drásticamente la velocidad de computación óptica. Por lo tanto, lograr que los chips ópticos de próxima generación ejecuten modelos generativos complejos siempre ha sido un desafío.
Nuestro trabajo aborda necesidades del mundo real, ampliando la aplicabilidad de los chips ópticos a redes neuronales generativas a gran escala. Este es el primer chip de IA generativa totalmente óptico a gran escala de la industria, que abarca múltiples tareas generativas a gran escala, como la generación semántica de imágenes de alta resolución (≥512×512), la generación 3D, la generación y manipulación semántica de vídeo de alta definición, la eliminación de ruido y la transferencia de características locales y globales.
Y lo que es más importante, no utilizamos generación de luz asistida eléctricamente, sino que permitimos que el chip totalmente óptico complete todo el proceso de extremo a extremo: imagen de entrada, comprensión semántica, manipulación semántica y generación de nuevos datos multimedia, lo que otorga a la luz la capacidad de «comprender» y «reconocer» la semántica.
*China Science Daily*: Con base en este logro, ¿cuáles son los planes futuros del equipo en cuanto a la hoja de ruta tecnológica y la producción?.
Zhai Guangtao:
Técnicamente, seguiremos avanzando en la línea principal de chips informáticos de próxima generación, profundizando en los requisitos reales de latencia de extremo a extremo y consumo de energía para tareas relacionadas con modelos a gran escala. Creemos que LightGen está listo para aplicarse por primera vez en procesos de producción de contenido, como la previsualización en tiempo real y la generación ultrarrápida de imágenes, las etapas más intensivas en computación y críticas para la retroalimentación.
A nivel de industrialización, ya hemos colaborado con socios de la industria en prácticas de aplicación y seguiremos trabajando estrechamente con las partes interesadas para asegurar que nuestra investigación se ajuste mejor a las necesidades del mundo real.
El becario Zhang Haorui también contribuyó a este artículo.

