La compañía tecnológica anuncia avances en corrección de errores, compilación y simulación cuántica, utilizando la potencia de sus GPU para impulsar una nueva era de rendimiento y estabilidad.

Nvidia, uno de los gigantes tecnológicos más influyentes del mundo, ha dado un paso firme hacia la computación cuántica, presentando un informe el 30 de septiembre que detalla sus últimos avances en este campo.

Con esta iniciativa, la firma se suma a una creciente lista de actores —como IonQ, IBM, HSBC o incluso la SEC de Estados Unidos— que ya exploran la frontera cuántica como parte del futuro de la computación y las finanzas.

Desde la empresa afirmaron que la computación cuántica transformará industrias completas, aunque su desarrollo depende de superar tres desafíos fundamentales:

  • la corrección de errores cuánticos,

  • la optimización de los circuitos, y

  • la simulación precisa de sistemas cuánticos.

Aun cuando las máquinas cuánticas actuales están lejos de amenazar la criptografía que protege redes como Bitcoin, los progresos de Nvidia abren el camino hacia procesadores más estables, rápidos y escalables, que podrían acercar ese horizonte.


Corrección de errores cuánticos: el primer gran frente

Los cúbits, unidades básicas de la computación cuántica, pueden representar múltiples estados simultáneamente, lo que permite un poder de cálculo masivo. Pero esa misma propiedad los hace vulnerables al ruido ambiental y a los errores.

Para afrontar este obstáculo, Nvidia se asoció con el Laboratorio de Software Cuántico de la Universidad de Edimburgo, desarrollando un innovador método de decodificación denominado AutoDEC, implementado mediante su librería CUDA-Q QEC.

Este enfoque permite duplicar la velocidad y precisión en la detección y corrección de errores gracias al uso de GPU, que ejecutan procesos paralelos con baja latencia.

En paralelo, Nvidia colaboró con QuEra para crear un decodificador basado en inteligencia artificial, capaz de ofrecer una mejora de hasta 50 veces en velocidad y una mayor exactitud. Los modelos de IA fueron entrenados con cargas intensivas y luego optimizados para operar en tiempo real, un avance esencial para los futuros ordenadores cuánticos.


Optimización de circuitos: el segundo desafío

Otro de los grandes retos es la compilación de circuitos cuánticos, proceso que traduce algoritmos en instrucciones ejecutables para el hardware físico. Este paso requiere una asignación eficiente de cúbits, un desafío comparable a resolver un rompecabezas con millones de combinaciones posibles.

En colaboración con Q-CTRL y Oxford Quantum Circuits (OQC), Nvidia implementó un sistema impulsado por GPU que consiguió acelerar hasta 600 veces las tareas de compilación, reduciendo drásticamente los tiempos necesarios para ejecutar algoritmos cuánticos complejos.


Simulación cuántica: el tercer eje

El tercer campo en el que Nvidia concentró sus esfuerzos es la simulación numérica de sistemas cuánticos, esencial para comprender el comportamiento de los cúbits y diseñar hardware más robusto.

Trabajando junto a la Universidad de Sherbrooke y Amazon Web Services (AWS), los investigadores observaron un rendimiento hasta 4.000 veces superior al simular la dinámica de un cúbit transmon acoplado a un resonador.

Este tipo de simulaciones permite optimizar el diseño de cúbits más estables y menos sensibles al ruido, acelerando el progreso hacia ordenadores cuánticos eficientes y funcionales.


Una hoja de ruta hacia la computación del mañana

Con estos avances, Nvidia busca eliminar los principales cuellos de botella de la computación cuántica: el ruido, la lentitud y la falta de escalabilidad. Su estrategia combina GPU, IA y colaboración interdisciplinaria para acercar la realidad de los ordenadores cuánticos prácticos.

Si la tendencia continúa, la compañía podría situarse como un actor central en la transición hacia una era donde el cálculo cuántico deje de ser experimental y se convierta en una herramienta cotidiana para ciencia, finanzas, criptografía y más.