Nos acercamos al final del año y, como es habitual, se producen una avalancha de anuncios relacionados con los ordenadores cuánticos, en parte porque algunas empresas quieren cumplir con los plazos prometidos. La mayoría de ellos implican mejoras evolutivas respecto de generaciones anteriores de hardware. Pero este año tenemos algo nuevo: la primera empresa que lanza al mercado una nueva tecnología de cúbits cuánticos.
La tecnología se denomina cúbit de doble riel y tiene como objetivo hacer que la forma más común de error sea trivialmente fácil de detectar en el hardware, lo que hace que la corrección de errores sea mucho más eficiente. Y, mientras que el gigante tecnológico Amazon ha estado experimentando con ellos , una empresa emergente llamada Quantum Circuits es la primera en brindar acceso público a los cúbits de doble riel a través de un servicio en la nube.
Si bien la tecnología es interesante por sí sola, también nos brinda una ventana a cómo el campo en su conjunto está pensando en hacer que la computación cuántica con corrección de errores funcione.
¿Qué es un qubit de doble carril?
Los cúbits de doble raíl son variantes del hardware utilizado en los transmones, los cúbits preferidos por empresas como Google e IBM. La unidad de hardware básica conecta un bucle de cable superconductor a una pequeña cavidad que permite que los fotones de microondas resuenen. Esta configuración permite que la presencia de fotones de microondas en el resonador influya en el comportamiento de la corriente en el cable y viceversa. En un transmones, los fotones de microondas se utilizan para controlar la corriente. Pero hay otras empresas que tienen hardware que hace lo contrario, controlando el estado de los fotones alterando la corriente.
Los cúbits de doble raíl utilizan dos de estos sistemas conectados entre sí, lo que permite que los fotones se desplacen de un resonador a otro. Mediante el uso de bucles superconductores, es posible controlar la probabilidad de que un fotón termine en el resonador izquierdo o derecho. La ubicación real del fotón permanecerá desconocida hasta que se mida, lo que permite que el sistema en su conjunto contenga un solo bit de información cuántica: un cúbit.
Esto tiene una desventaja obvia: hay que construir el doble de hardware para la misma cantidad de cúbits. ¿Por qué molestarse entonces? Porque la gran mayoría de los errores implican la pérdida del fotón, y eso se detecta fácilmente. “Se trata de alrededor del 90 por ciento o más [de los errores]”, dijo Andrei Petrenko de Quantum Circuits. “Por lo tanto, es una gran ventaja que tenemos con la pérdida de fotones sobre otros errores. Y eso es lo que hace que la corrección de errores sea mucho más eficiente: el hecho de que las pérdidas de fotones son, con diferencia, el error dominante”.
Petrenko dijo que, sin realizar una medición que altere el almacenamiento del cúbit, es posible determinar si hay un número impar de fotones en el hardware. Si ese no es el caso, se sabe que se ha producido un error, probablemente una pérdida de fotones (las ganancias de fotones son poco frecuentes, pero ocurren). Para algoritmos simples, esto sería una señal para empezar de nuevo.
Pero no elimina la necesidad de corrección de errores si queremos hacer cálculos más complejos que no pueden completarse sin encontrar un error. Todavía existe el 10 por ciento restante de errores, que son principalmente algo llamado inversión de fase que es característico de los sistemas cuánticos. Las inversiones de bits son aún más raras en configuraciones de doble carril. Finalmente, simplemente saber que se perdió un fotón no te dice todo lo que necesitas saber para solucionar el problema; aún se necesitan mediciones de corrección de errores de otras partes del cúbit lógico para solucionar cualquier problema.
De hecho, el hardware inicial que se está poniendo a disposición es demasiado pequeño para siquiera acercarse a cálculos útiles. En su lugar, Quantum Circuits optó por vincular ocho cúbits con conexiones vecinas más cercanas para poder alojar un único cúbit lógico que permita la corrección de errores. Dicho de otro modo: esta máquina está destinada a permitir que las personas aprendan a utilizar las características únicas de los cúbits de doble carril para mejorar la corrección de errores.
Una consecuencia de tener este hardware distintivo es que la pila de software que controla las operaciones necesita aprovechar sus capacidades de detección de errores. No se puede consultar directamente a ningún otro hardware del mercado para determinar si ha encontrado un error. Por lo tanto, Quantum Circuits ha tenido que desarrollar su propia pila de software para permitir que los usuarios se beneficien realmente de los cúbits de doble carril. Petrenko dijo que la empresa también decidió proporcionar acceso a su hardware a través de su propio servicio en la nube porque quería conectarse directamente con los primeros usuarios para comprender mejor sus necesidades y expectativas.
¿Números o ruido?
Dado que varias empresas ya han lanzado múltiples versiones de su hardware cuántico y las han escalado a cientos de cúbits individuales, puede parecer un poco extraño ver a una empresa entrar al mercado ahora con una máquina que tiene solo un puñado de cúbits. Pero, sorprendentemente, Quantum Circuits no es la única que planea una entrada relativamente tardía al mercado con hardware que solo alberga unos pocos cúbits.
Tras haber hablado con varios de ellos, me doy cuenta de que lo que hacen tiene una lógica. Lo que sigue es mi intento de transmitir esa lógica de forma general, sin centrarme en el caso de ninguna empresa en particular.
Todo el mundo está de acuerdo en que el futuro de la computación cuántica es la corrección de errores, que requiere unir varios cúbits de hardware en una sola unidad denominada cúbit lógico. Para conseguir un rendimiento realmente sólido y sin errores, hay dos opciones. Una es dedicar muchos cúbits de hardware al cúbit lógico, de modo que se puedan gestionar varios errores a la vez. O se puede reducir la tasa de errores del hardware, de modo que se pueda obtener un cúbit lógico con un rendimiento equivalente utilizando menos cúbits de hardware. (Las dos opciones no son mutuamente excluyentes, y todo el mundo tendrá que hacer un poco de ambas).
Las dos opciones plantean desafíos muy diferentes. Mejorar la tasa de error del hardware significa profundizar en la física de los cúbits individuales y el hardware que los controla. En otras palabras, conseguir láseres que tengan menos de las inevitables fluctuaciones de frecuencia y energía. O descubrir cómo fabricar bucles de cable superconductor con menos defectos o manejar cargas dispersas en la superficie de los componentes electrónicos. Se trata de problemas relativamente difíciles.
En cambio, aumentar el número de cúbits implica en gran medida poder hacer de forma constante algo que ya se sabe hacer. Por tanto, si ya se sabe cómo fabricar un buen cable superconductor, basta con fabricar unos cuantos miles de ejemplares de ese cable en lugar de unas pocas docenas. Los componentes electrónicos que atraparán un átomo se pueden fabricar de forma que resulte más fácil fabricarlos miles de veces. Se trata en su mayoría de problemas de ingeniería y, en general, de una complejidad similar a los problemas que ya hemos resuelto para que se produzca la revolución electrónica.
En otras palabras, dentro de ciertos límites, el escalamiento es un problema mucho más fácil de resolver que el de los errores. Seguirá siendo extremadamente difícil obtener los millones de cúbits de hardware que necesitaríamos para corregir errores de algoritmos complejos en el hardware actual. Pero si podemos reducir un poco la tasa de error, podremos utilizar cúbits lógicos más pequeños y es posible que solo necesitemos 10 000 cúbits de hardware, lo que será más accesible.
Los errores primero
Y hay evidencia de que incluso los primeros participantes en la computación cuántica han razonado de la misma manera. Google ha estado trabajando en iteraciones del mismo diseño de chip desde su anuncio de supremacía cuántica en 2019 , centrándose en comprender los errores que ocurren en las versiones mejoradas de ese chip. IBM se propuso alcanzar la marca de los 1.000 cúbits como un objetivo importante, pero desde entonces se ha centrado en reducir la tasa de error en procesadores más pequeños. Alguien en una startup de computación cuántica nos dijo una vez que sería trivial atrapar más átomos en su hardware y aumentar el recuento de cúbits, pero no tenía mucho sentido hacerlo dadas las tasas de error de los cúbits en la máquina de la generación actual en ese momento.
Las nuevas empresas que entran ahora en este mercado argumentan que tienen una tecnología que reducirá radicalmente la tasa de errores o hará que el manejo de los errores que ocurren sea mucho más fácil. Quantum Circuits claramente cae en la última categoría, ya que los qubits de doble carril tratan exclusivamente de hacer que la forma más común de error sea trivial de detectar. La primera categoría incluye empresas como Oxford Ionics, que ha indicado que puede realizar puertas de un solo qubit con una fidelidad de más del 99,9991 por ciento . O Alice & Bob , que almacena qubits en el comportamiento de múltiples fotones en una sola cavidad de resonancia, lo que los hace muy resistentes a la pérdida de fotones individuales.
Estas empresas apuestan a que cuentan con una tecnología específica que les permitirá gestionar los problemas de tasa de error de forma más eficaz que los actores establecidos. Eso reducirá el escalamiento total que necesitan hacer, y el escalamiento será un problema más sencillo en general, y uno para el que es posible que ya tengan las piezas preparadas para gestionarlo. Petrenko, de Quantum Circuits, por ejemplo, dijo a Ars: “Creo que estamos en el punto en el que hemos pasado por una serie de iteraciones de esta arquitectura de cúbits en las que hemos eliminado el riesgo de una serie de obstáculos de ingeniería”. Y Oxford Ionics nos dijo que si pudieran fabricar los componentes electrónicos que utilizan para atrapar iones en su hardware una vez, sería fácil fabricarlos en masa.
Nada de esto debería implicar que estas empresas lo tendrán fácil en comparación con una startup que ya tiene experiencia tanto en la reducción de errores como en el escalamiento, o un gigante como Google o IBM que tiene los recursos para hacer ambas cosas. Pero sí explica por qué, incluso en esta etapa del desarrollo de la computación cuántica, todavía estamos viendo startups que ingresan al campo.
Fuente:
Timmer, J., & Timmer, J. (2024, 20 noviembre). Qubit that makes most errors obvious now available to customers. Ars Technica. https://arstechnica.com/science/2024/11/first-commercial-dual-rail-qubit-hardware-announced/