Científicos construyen el chip de computación cuántica más preciso jamás diseñado

Tecnología

Los físicos de Silicon Quantum Computing han desarrollado lo que dicen es el chip de computación cuántica más preciso jamás diseñado, después de construir un nuevo tipo de arquitectura. Representantes de la startup con sede en Sídney afirman que sus chips de computación cuántica atómica basados ​​en silicio les otorgan una ventaja sobre otros tipos de unidades de procesamiento cuántico (QPU). Esto se debe a que los chips se basan en una nueva arquitectura, denominada “14/15”, que coloca átomos de fósforo en el silicio (llamados así por ser los elementos 14 y 15 de la tabla periódica). Presentaron sus hallazgos en un nuevo estudio publicado el 17 de diciembre en la revista Nature.

SQC logró índices de fidelidad de entre el 99,5% y el 99,99% en una computadora cuántica con nueve qubits nucleares y dos qubits atómicos, lo que resultó en la primera demostración del mundo de computación cuántica atómica basada en silicio en clústeres separados. Los índices de fidelidad miden el rendimiento de las técnicas de corrección y mitigación de errores. Representantes de la empresa afirman haber alcanzado un índice de error de vanguardia en su arquitectura a medida.

Esto podría no parecer tan emocionante como las computadoras cuánticas con miles de cúbits, pero la arquitectura 14/15 es enormemente escalable, afirmaron los científicos en el estudio. Añadieron que demostrar la fidelidad máxima en múltiples clústeres sirve como prueba de concepto de lo que, en teoría, podría conducir a QPU con tolerancia a fallos y millones de cúbits funcionales.

La salsa secreta es el silicio (con un toque de fósforo)

La computación cuántica se basa en el mismo principio que la computación binaria: se utiliza energía para realizar cálculos. Pero en lugar de usar electricidad para activar interruptores, como ocurre en las computadoras binarias tradicionales, la computación cuántica implica la creación y manipulación de cúbits, el equivalente cuántico de los bits de una computadora clásica.

Los cúbits se presentan en diversas formas. Científicos de Google e IBM están construyendo sistemas con cúbits superconductores que utilizan circuitos controlados, mientras que algunos laboratorios, como PsiQuantum, han desarrollado cúbits fotónicos (cúbits que son partículas de luz). Otros, como IonQ, trabajan con iones atrapados, capturando átomos individuales y sujetándolos en un dispositivo conocido como pinzas láser.

La idea general es utilizar la mecánica cuántica para manipular algo muy pequeño de forma que se puedan realizar cálculos útiles a partir de sus estados potenciales. Los representantes de SQC afirman que su proceso para lograrlo es único, ya que las QPU se desarrollan utilizando la arquitectura 14/15. Crean cada chip colocando átomos de fósforo dentro de obleas de silicio puro.

“Es el tamaño de característica más pequeño en un chip de silicio”, declaró Michelle Simmons, directora ejecutiva de SQC, a Live Science en una entrevista. “Es de 0,13 nanómetros, y es esencialmente la longitud de enlace que se tiene en dirección vertical. Es dos órdenes de magnitud inferior a lo que TSMC suele hacer como estándar. Representa un aumento considerable en la precisión”.

Aumentar el número de qubits del mañana

Para que los científicos logren escalar en la computación cuántica, cada plataforma tiene varios obstáculos que superar o mitigar. Un obstáculo universal para todas las plataformas de computación cuántica es la corrección de errores (QEC). Los cálculos cuánticos se realizan en entornos extremadamente frágiles, con cúbits sensibles a ondas electromagnéticas, fluctuaciones de temperatura y otros estímulos. Esto provoca que la superposición de muchos cúbits colapse y se vuelvan inmensurables, con pérdida de información cuántica durante los cálculos.

Para compensar, la mayoría de las plataformas de computación cuántica dedican una cantidad de cúbits a la mitigación de errores. Funcionan de forma similar a los bits de verificación o paridad en una red clásica. Sin embargo, a medida que aumenta el número de cúbits, también aumenta la cantidad de cúbits necesarios para la QEC.

“Tenemos estos largos tiempos de coherencia de los espines nucleares y tenemos muy pocos errores de inversión de bits. Por lo tanto, nuestros códigos de corrección de errores son mucho más eficientes. No tenemos que corregir errores de inversión de bits ni de fase”, dijo Simmons.

En otros sistemas cuánticos basados ​​en silicio, los errores de inversión de bits son más frecuentes porque los cúbits tienden a ser menos estables cuando se manipulan con precisión burda. Gracias a la alta precisión con la que están diseñados los chips de SQC, pueden mitigar ciertos errores que se producen en otras plataformas.

“En realidad, solo tenemos que corregir esos errores de fase”, añadió Simmons. “Por lo tanto, los códigos de corrección de errores son mucho menores, por lo que la sobrecarga total que supone la corrección de errores…

“Se ha reducido mucho, mucho.”

La carrera para vencer al algoritmo de Grover

El estándar para probar la fidelidad en un sistema de computación cuántica es una rutina llamada algoritmo de Grover. Fue diseñado por el informático Lov Grover en 1996 para demostrar si una computadora cuántica puede demostrar una ventaja sobre una computadora clásica en una función de búsqueda específica.

Hoy en día, se utiliza como herramienta de diagnóstico para determinar la eficiencia operativa de los sistemas cuánticos. En esencia, si un laboratorio alcanza índices de fidelidad de computación cuántica del 99,0% o superiores, se considera que ha logrado computación cuántica con corrección de errores y tolerancia a fallos.

En febrero de 2025, SQC publicó un estudio en la revista Nature en el que el equipo demostró una tasa de fidelidad del 98,9% en el algoritmo de Grover con su arquitectura 14/15. En este sentido, SQC ha superado a firmas como IBM y Google; aunque han mostrado resultados competitivos con decenas o incluso cientos de qubits frente a los cuatro qubits de SQC.

IBM, Google y otros proyectos destacados aún están probando e iterando sus respectivas hojas de ruta. Sin embargo, a medida que aumentan el número de cúbits, se ven obligados a adaptar sus técnicas de mitigación de errores. El QEC ha demostrado ser uno de los cuellos de botella más difíciles de superar. Pero los científicos de SQC dicen que su plataforma es tan “deficiente en errores” que fue capaz de romper el récord de Grover sin ejecutar ninguna corrección de errores en los qubits.

“Si nos fijamos en el resultado de Grover que obtuvimos a principios de año, tenemos el algoritmo de Grover con la mayor fidelidad, un 98,87% del máximo teórico, y en ese aspecto no realizamos ninguna corrección de errores”, dijo Simmons.

Simmons dice que los “grupos” de qubits incluidos en el nuevo sistema de 11 qubits se pueden escalar para representar millones de qubits, aunque los cuellos de botella de infraestructura aún pueden ralentizar el progreso.

“Obviamente, a medida que escalamos hacia sistemas más grandes, tendremos que realizar corrección de errores”, dijo Simmons. “Todas las empresas deben hacerlo. Pero la cantidad de cúbits que necesitaremos será mucho menor. Por lo tanto, el sistema físico será más pequeño. Los requisitos de energía serán menores”.

Fuente: Live Science.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *