Los científicos de Google han creado un nuevo procesador cuántico que, en cinco minutos, ha resuelto un problema que la mejor supercomputadora del mundo habría tardado diez septillones de años en resolver. Este avance permitirá que las computadoras cuánticas sean menos propensas a errores cuanto más grandes sean, lo que supone superar un obstáculo que se había mantenido durante décadas.
Las computadoras cuánticas son inherentemente “ruidosas”, lo que significa que, sin tecnologías de corrección de errores, cada uno de cada 1.000 cúbits (los componentes básicos de una computadora cuántica) falla.
También significa que los tiempos de coherencia (el tiempo que los cúbits pueden permanecer en una superposición para que puedan procesar cálculos en paralelo) siguen siendo cortos. Por el contrario, uno de cada mil millones de billones de bits falla en las computadoras convencionales.
Esta alta tasa de errores es una de las principales barreras para ampliar estas máquinas hasta que sean lo suficientemente buenas como para funcionar mucho mejor que las supercomputadoras más rápidas. Por eso, la investigación se ha centrado en construir computadoras cuánticas con cúbits mejores y menos propensos a errores (no simplemente más).
Google afirma que su nueva unidad de procesamiento cuántico (QPU), denominada “Willow”, es la primera del mundo en lograr resultados “por debajo del umbral”, un hito descrito por el científico informático Peter Shor en un artículo de 1995. El equipo describió la tecnología en un estudio publicado el 9 de diciembre en la revista Nature.
Resolver un problema planteado hace décadas
El avance (lograr este hito “por debajo del umbral”) significa que los errores en una computadora cuántica se reducirán exponencialmente a medida que se agreguen más qubits físicos. Traza un camino para ampliar las máquinas cuánticas en el futuro.
La tecnología se basa en qubits lógicos. Se trata de un qubit codificado utilizando una colección de qubits físicos en una formación reticular. Todos los qubits físicos en un solo qubit lógico comparten los mismos datos, lo que significa que si algún qubit falla, los cálculos continúan porque la información aún se puede encontrar dentro del qubit lógico.
Los científicos de Google construyeron qubits lo suficientemente confiables para la reducción exponencial de errores haciendo varios cambios. Mejoraron los protocolos de calibración, mejoraron las técnicas de aprendizaje automático para identificar errores y mejoraron los métodos de fabricación de dispositivos. Lo más importante es que mejoraron los tiempos de coherencia al tiempo que conservaron la capacidad de ajustar los qubits físicos para obtener el mejor rendimiento.
“Lo que hemos podido hacer en la corrección de errores cuánticos es un hito realmente importante, para la comunidad científica y para el futuro de la computación cuántica, que es [mostrar] que podemos crear un sistema que funcione por debajo del umbral de corrección de errores cuánticos”, dijo a Live Science Julian Kelly, director de hardware cuántico de Google Quantum AI.
Esta desafiante tarea requiere eliminar más errores de un sistema de los que se introducen. Por debajo de este umbral, los científicos pueden ampliar una computadora cuántica para que sea cada vez más grande, y los errores seguirán disminuyendo, explicó Kelly.
“Este ha sido un desafío sobresaliente durante 30 años, desde que se concibió la idea de la corrección de errores cuánticos a mediados de los 90”, dijo Kelly.
Resultados alucinantes para la computación cuántica
Los investigadores de Google probaron Willow contra el punto de referencia de muestreo de circuito aleatorio (RCS), que ahora es una métrica estándar para evaluar los chips de computación cuántica. En estas pruebas, Willow realizó un cálculo en menos de cinco minutos que habría llevado a las supercomputadoras más rápidas de la actualidad 10 cuatrillones de años. Esto es casi mil billones de veces más que la edad del universo. La primera edición de la QPU de Willow también puede lograr un tiempo de coherencia de casi 100 microsegundos, que es cinco veces mejor que el rendimiento del chip Sycamore anterior de Google.
Google anunció por primera vez que Sycamore había superado el punto de referencia RCS en 2019, cuando los científicos utilizaron el chip para resolver un problema que una supercomputadora clásica habría tardado 10.000 años en calcular. En julio, una nueva computadora cuántica construida por Quantinuum rompió ese récord por 100 veces.
Luego, en octubre, Google volvió a anunciar que había descubierto una nueva “fase cuántica” al utilizar Sycamore para procesar cálculos, lo que significa que las mejores QPU actuales pueden superar a las supercomputadoras más rápidas en aplicaciones prácticas por primera vez.
“Los tiempos de coherencia son ahora mucho más altos de lo que solían ser, y traducimos inmediatamente a una reducción básica de todas las tasas de error de operación física en un factor de aproximadamente dos”, dijo Kelly.
“Por lo tanto, todos los qubits subyacentes simplemente mejoraron en todo lo que hacen en un factor de aproximadamente dos. Si observas la tasa de error lógico entre este nuevo procesador y Sycamore, hay una diferencia de aproximadamente un factor de 20, y eso proviene de la ampliación, pero también de empujar por debajo del umbral”.
Mirando más allá de “por debajo del umbral”
Los científicos de Google ahora apuntan a demostrar cálculos útiles y prácticos para los chips cuánticos actuales, en lugar de depender de la evaluación comparativa. En el pasado, el equipo ha realizado simulaciones de sistemas cuánticos que han llevado a descubrimientos y avances científicos, dijo Kelly a Live Science.
Un ejemplo de ello es el descubrimiento de desviaciones de las supuestas leyes de la física, pero estos resultados todavía estaban al alcance de los ordenadores clásicos más potentes.
A continuación, el equipo quiere crear un “cúbit lógico muy, muy bueno” con una tasa de error de uno en un millón. Para construirlo, necesitarían unir 1.457 cúbits físicos, dijeron.
Este ámbito es un reto porque es imposible llegar allí utilizando solo hardware físico: se necesitaría tecnología de corrección de errores superpuesta. Los científicos quieren conectar los cúbits lógicos entre sí para que funcionen mejor que los superordenadores en las pruebas comparativas, así como en escenarios del mundo real.
Fuente: Live Science.