Uno de los principales obstáculos para comercializar una computadora cuántica es la reducción de la tasa de error de cúbits, el equivalente a la tasa de error de bits en el mundo digital. Según se informa, IBM ha logrado un avance en este campo al ejecutar su algoritmo avanzado de corrección de errores en hardware AMD estándar.
En un artículo publicado el viernes en arXiv, investigadores de IBM informaron que no solo ejecutaron su algoritmo cuántico en chips FPGA AMD estándar, sino que además funcionó diez veces más rápido de lo necesario para igualar el rendimiento de una computadora cuántica.
Se trata de un avance significativo en la corrección de errores, lo cual representa la mitad del camino para que IBM alcance su objetivo de 2029 para su computadora cuántica a gran escala Starling, explicó Rebecca Krauthamer, CEO y cofundadora de QuSecure, empresa fabricante de soluciones de seguridad cuántica, con sede en San Mateo, California.
«IBM es reconocida en el ámbito de la computación cuántica por cumplir siempre con sus plazos», declaró. «Esto es significativo porque parece que se ha adelantado un año en cuanto a la corrección de errores».
Cuando IBM presentó su nuevo algoritmo de corrección de errores a principios de este año, propuso ejecutarlo en un decodificador llamado BP+OSD. Este decodificador es el algoritmo clásico que se ejecuta en paralelo al algoritmo cuántico. Identifica las correcciones que deben aplicarse basándose en la información del código de corrección cuántica.
Diego Ruiz, físico de Alice & Bob, empresa con sede en París que desarrolla computadoras cuánticas tolerantes a fallos utilizando la arquitectura de «qubit cat», explicó que este decodificador presentaba dos problemas. «No es muy preciso, por lo que el código de corrección de errores no es tan eficiente como podría ser», declaró. «Pero, lo más importante, no era lo suficientemente rápido, lo cual es un problema grave, ya que puede ralentizar exponencialmente la computadora cuántica».
Posteriormente, IBM propuso utilizar un nuevo decodificador, llamado Relay-BP, que, según afirmaba, era más rápido y preciso. «En la investigación publicada recientemente, IBM implementó el decodificador en una FPGA de AMD y descubrió que, efectivamente, era lo suficientemente rápido como para no ralentizar la computadora cuántica», concluyó. «Creo que este es un resultado importante porque elimina un posible cuello de botella que podría haber limitado estos mejores códigos».
El papel de la computación clásica en el progreso cuántico.
Con este último avance, IBM refuerza la idea de que las computadoras clásicas seguirán impulsando y mejorando el rendimiento de las computadoras cuánticas en un futuro próximo, señaló Izhar Medalsy, director ejecutivo de Quantum Elements, fabricante de una plataforma de programación nativa de IA para hardware cuántico, en Los Ángeles. «Aprovechar las capacidades de la computación clásica es fundamental para el avance del hardware de computación cuántica», declaró.
«Este anuncio no hace más que reforzar la necesidad de potenciar las computadoras cuánticas con dispositivos clásicos», afirmó. «Esto demuestra que la reducción de ruido y la mejora del rendimiento del hardware cuántico requieren innovación en los dispositivos clásicos».
El resultado de IBM demuestra que el hardware clásico ahora puede simular y optimizar ciertos flujos de trabajo de corrección de errores cuánticos que antes se creía que requerían pequeños procesadores cuánticos, añadió Simon Fried, vicepresidente de desarrollo de negocios y marketing de Classiq, desarrollador de software para computadoras cuánticas, en Tel Aviv, Israel.
“Ejecutar un algoritmo QEC de forma eficiente en CPUs AMD demuestra un progreso en el software de modelado y control, más que en el rendimiento de los cúbits en sí”, declaró. “Esto pone de relieve una integración más estrecha entre las capas clásicas y cuánticas, esencial para la escalabilidad”.
Sin embargo, no cree que este nuevo desarrollo acelere directamente el cronograma de hardware. “Lo que demuestra es que estamos mejorando la pila de software y nuestra comprensión de las operaciones tolerantes a fallos”, afirmó.
“Los factores decisivos siguen estando relacionados con el hardware, como la estabilidad de los cúbits lógicos, los umbrales de error y las arquitecturas escalables”, continuó. “Es posible contar con una computadora cuántica tolerante a fallos útil para 2029, pero aún depende más de los avances en la física del hardware que de los resultados de las simulaciones clásicas”.
¿Computadoras cuánticas en 2026?.
Roger Grimes, asesor de CISO en KnowBe4, un proveedor de capacitación en concientización sobre seguridad con sede en Clearwater, Florida, se mostró más optimista sobre el cronograma para las computadoras cuánticas.
«Creo que las computadoras cuánticas prácticas estarán disponibles el próximo año, y cualquier avance adicional en computación cuántica apenas necesita este invento de IBM», declaró. «No viene mal, pero hay tantas computadoras cuánticas de tantos proveedores que esta mejora es solo una gota en un océano».
«Esta nueva técnica es solo una mejora en la corrección de errores de cúbits cuánticos», afirmó. «Hay muchas otras».
«Considero que la corrección de errores cuánticos mediante chips binarios tradicionales más económicos no es algo malo», continuó. «Lo más barato es mejor. Pero no creo que las empresas pioneras que buscan adoptar rápidamente las mejores computadoras cuánticas se preocupen por diferencias de precio de decenas de millones de dólares».
Luke Yang, analista de renta variable de Morningstar Research Services en Chicago, escribió en un informe de investigación que le gustaba la creciente colaboración entre IBM y AMD en computación cuántica.
“Tiene sentido que las FPGA de AMD se conviertan en el primer tipo de chip integrado en los sistemas cuánticos de IBM, ya que su volumen de producción relativamente bajo las hace óptimas para casos de prueba”, señaló. “Las FPGA son más económicas que los chips cuánticos dedicados, como el Heron de IBM, pero siguen siendo mucho más caras que las CPU o GPU más comunes en términos de coste unitario”.
“La integración de FPGA en los sistemas cuánticos es un paso en la dirección correcta que reduce los costes generales de la computación cuántica”, continuó. “Sin embargo, no creemos que este avance por sí solo conduzca a una adopción generalizada de la computación cuántica, dada la falta de casos de uso comercialmente viables para la tecnología actual”.
Implicaciones de la seguridad cuántica.
Este avance es preocupante porque muestra una vía hacia la relevancia al abordar el persistente desafío de ingeniería del manejo de errores en la computación cuántica, afirmó Philip George, estratega técnico ejecutivo de Merlin Cyber, proveedor de soluciones de ciberseguridad, identidad y gestión de accesos, con sede en Viena, Virginia.
“La diferencia crucial radica en que la posible solución utiliza chips FPGA, ampliamente disponibles y que no requieren nuevos procesos de fabricación”, declaró.
“Si este método resulta viable, podríamos enfrentarnos a un plazo aún más ajustado para la disponibilidad de computadoras cuánticas criptográficamente relevantes, tanto para uso estatal como comercial”, añadió. “Esto significa que, en esencia, tanto el gobierno como la industria podrían quedarse sin tiempo para avanzar significativamente en la adopción de los nuevos estándares de seguridad cuántica”.
Jason Soroko, investigador sénior de Sectigo, proveedor global de certificados digitales, añadió que ejecutar un bucle de gestión de errores cuánticos en tiempo real con FPGA AMD estándar indica que la pila de control clásica para sistemas cuánticos está madurando y abaratándose.
«Esto reduce las barreras para la escalabilidad y la reproducibilidad, acerca estos sistemas a las prácticas habituales de los centros de datos y diversifica la cadena de suministro de hardware entre componentes de uso común», declaró. «Es alentador para el progreso a corto plazo hacia cúbits más estables y para que IBM cumpla con su hoja de ruta, pero no modifica el panorama de riesgo a corto plazo para vulnerar el cifrado actual».
«Sin embargo, la situación de seguridad cambia rápidamente una vez que el control se traslada a equipos estándar, ya que la superficie de ataque se extiende más allá de la electrónica a medida e incluye firmware, controladores, software de orquestación y las interfaces físicas que conectan los racks con los dispositivos criogénicos», explicó.
“El anuncio de IBM es el último acontecimiento en lo que parece ser una sucesión incesante de señales sobre la rapidez con la que avanza la tecnología cuántica, desde las directrices del NIST para la ciberseguridad post-cuántica hasta las recomendaciones del CIO del Departamento de Defensa”, añadió Krauthamer de QuSecure.
“Lo que antes eran escasas señales de una amenaza inminente se han convertido en señales muy densas que aparecen semanalmente”, continuó. “Se acelera el tiempo para que una computadora cuántica pueda descifrar todos los sistemas de criptografía de clave pública actuales, lo que significa que más de 20 mil millones de dispositivos deberán migrar a la era post-cuántica en tan solo unos pocos años”.

