|QC-3> Todo es ahora muy distinto
Después de entender el origen y fundamentos de un computador clásico, según vimos en el anterior artículo de esta serie (“|QC-2> Von Neumann abre la puerta a Mr. Bit”), es el momento de introducir las diferencias que existen en el nuevo paradigma de la computación cuántica.
En este artículo comenzaremos a introducir los conceptos básicos de la computación cuántica. Hablaremos de los fundamentos científicos y técnicos que hay detrás de la construcción de un computador cuántico, las características que lo definen, la unidad básica de información y sus modos de implementación.
En primer lugar, tenemos que subrayar que un computador cuántico es muy diferente a su homólogo clásico en cuanto a construcción, operación y programación… y también respecto a sus casos de uso, al menos por el momento, y posiblemente durante las próximas décadas.
La importancia del computador cuántico
La computación cuántica se ha convertido en un eje estratégico dentro de las políticas científicas y de innovación de muchos estados, generando un mercado que mueve miles de millones de euros y creando un ecosistema muy diverso de empresas, desde spin-offs de centros públicos de investigación y startups, hasta grandes compañías en diferentes sectores: semiconductores, cloud pública, telecomunicaciones, ciberseguridad, aeroespacial, etc.
La pregunta clave es ¿por qué despiertan tanto interés?
En primer lugar, como mencionamos al final del artículo anterior, porque la miniaturización de los componentes electrónicos dentro del procesador, ha llegado a un límite en el que el diseño y operación de estos dispositivos no sigue las reglas que, cómodamente, nos han guiado durante casi 100 años. A escala microscópica, como veremos más adelante, la materia se comporta de modo diferente al que estamos habituados, y esto, al margen de influir en el diseño, fabricación y operación de los componentes de un computador clásico, también establece unos límites a la miniaturización, lo cual hace necesario un cambio de paradigma en la computación digital que nos ha acompañado durante el último siglo. Y aquí es donde la computación cuántica u otras aproximaciones, como la computación neuromórfica, pueden permitir la evolución de los sistemas de computación para cubrir nuestras demandas crecientes en la gestión de los datos y resolución de problemas computacionalmente complejos.
En segundo lugar, porque los problemas que puede resolver un computador cuántico, que no son cualquiera (al menos por el momento), se procesan en paralelo y a unas velocidades que hacen palidecer a sus hermanos digitales. El computador cuántico es, de forma natural, una máquina de procesamiento paralelo. Por el contrario, un computador digital es, en esencia, una máquina de procesamiento secuencial a la que hemos dotado de una capacidad de paralelización a base de técnicas originales: algunas implementadas en la CPU, otras con el uso de dispositivos externos, como las GPU, y otras por medio de sofisticadas técnicas de software. Esto sitúa al computador cuántico como una máquina capaz de resolver problemas irresolubles por métodos convencionales. Un ejemplo es el que se deriva del algoritmo cuántico de Shor para la factorización de números enteros. Si lo comparamos con su equivalente en el mundo digital, el algoritmo “Number Field Sieve” (el champion de todos los algoritmos clásicos de factorización), el primero es significativamente más rápido que el segundo. Esto abre las puertas a un abanico de posibilidades para el computador cuántico, al margen de permitir romper las claves de RSA, o criptografía de clave pública, empleadas en la mayoría de los sistemas de criptografía actual.
Por poner un ejemplo de procesamiento paralelo, la CPU de un computador clásico moderno puede realizar, como máximo y en promedio, 16 operaciones por cada ciclo de su reloj interno (IPC). Un computador cuántico de n qubits podría realizar 22^2n operaciones por ciclo. Es decir, para 10 qubits podría realizar 1 millón de operaciones en paralelo y para 20, la cantidad asciende a 1 billón de operaciones simultáneas.
Curiosidad: Para medir el rendimiento de un procesador, las métricas más comunes son el número de instrucciones por ciclo de reloj (IPC) y el número de ciclos de reloj que consume cada instrucción del procesador (CPI). La primera está relacionada con las operaciones por segundo que puede realizar un computador (FLOP), la métrica principal del ranking más famoso en Supercomputación: el Top500.
En tercer lugar, está la capacidad de almacenamiento de información. En un computador digital de n bits, se puede almacenar sólo un valor de entre 2^n posibles. Un computador cuántico de n qubits, teóricamente, puede almacenar 2^n valores posibles simultáneamente.
En la tabla podemos ver comparadas algunas de estas magnitudes:
Con 8 bits, tendremos un byte en almacenamiento clásico. Para 8 qubits, el almacenamiento cuántico es de 32 bytes. Hasta aquí no parece muy sorprendente, pero sigamos. Con 32 bits, tendremos 4 bytes en almacenamiento clásico, pero si tenemos 32 qubits, disponemos de 536.870.912 valores distintos, esto equivale a más de 500 millones de bytes (o Megabytes, MB). Esto ya empieza a asombrarnos, pero dupliquemos ese valor: si contamos con 64 bits, en un modelo clásico sólo contaremos con 8 bytes. Sin embargo, su equivalente cuántico, podría almacenar más de 2x10^18 valores diferentes, es decir, 2 trillones de valores posibles (o 2 Exabytes, EB)
Otro tema muy distinto es ser capaz de explotar esta capacidad teórica para una aplicación práctica. Pero no vamos a entrar en ese detalle por el momento.
Y, en último lugar, pero no por ello menos importante, el atractivo de estos sistemas reside en que abren las puertas a posibles avances revolucionarios con multitud de posibilidades, como consecuencia de algunos de los fenómenos cuánticos en los que se basan. Por ejemplo, la teleportación derivada del entrelazamiento cuántico, que explicaremos más adelante, está permitiendo avances significativos en sistemas y tecnologías de telecomunicaciones. Y este es sólo un ejemplo. Hay infinidad de ellos. Al final de esta serie de artículos, desarrollaremos algunas aplicaciones prácticas de la computación cuántica.
Entendiendo el computador cuántico
Para entender cómo funciona un computador cuántico y los diferentes tipos que se han construido hasta el momento, tenemos que explicar algunos conceptos fundamentales que, lamentablemente, son algo complejos, porque se oponen a cómo percibimos el mundo que nos rodea. En cualquier caso, hemos procurado exponerlos aquí de la manera más sencilla posible.
Los conceptos que vamos a introducir en este artículo son:
- El qubit como unidad básica de información
- Superposición cuántica
- Entrelazamiento cuántico
- Efecto túnel
Dejaremos para sucesivos artículos el resumir cómo se programa un computador cuántico, introducir el problema de la optimización y mencionar los modelos de Ising y el recocido cuántico (quantum annealing en inglés), conceptos clave, estos últimos, para entender un tipo específico de computadores cuánticos, que están demostrando su capacidad para resolver problemas altamente complejos con soluciones comerciales.
Empecemos por explicar el Qubit.
El qbit como unidad básica de información
En computación cuántica la unidad básica de información es el qubit, que es el equivalente cuántico al bit digital, y que puede tener los valores: 0, 1 ó una combinación lineal de 0 y 1. Cuando esto ocurre decimos que el qubit está en una superposición de los estados 0 y 1. De la superposición de estados hablaremos más adelante, pero ¿Cómo puede ser que un valor sea 0, 1 ó una combinación de 0 y 1? Pues imaginemos la analogía con una puerta (que es una analogía bien traída por su relación con los transistores y las puertas lógicas de las que hablamos en artículo anterior)
Imaginemos una habitación que tiene una puerta que da a otra estancia y que está dotada de un resorte mecanizado que nos permite controlar su apertura y cierre con un mando a distancia. El mando tiene dos botones: abrir y cerrar.
Si pulsamos el botón de abrir y salimos de la habitación, sabemos que al volver, estará abierta. Si pulsamos el botón de cerrar, sabemos que cuando regresemos estará cerrada. Podemos entrar y salir de la habitación cuantas veces queramos, y siempre encontraremos los mismos resultados. Estemos o no mirando a la puerta, cuando pulsemos cada botón, la puerta se abrirá o cerrará de acuerdo a lo esperado. No necesitamos entrar a la habitación para saber cómo está la puerta, si hemos pulsado previamente un determinado botón en el control remoto, porque la puerta estará en el estado correspondiente.
Esto es una puerta clásica, la que estamos acostumbrados a ver en el mundo que percibimos.
Supongamos ahora que tenemos una puerta cuántica, una “qu-puerta”, y que tenemos un mando a distancia cuántico, un “qu-mando”. Este mando es ligeramente diferente. En este caso tenemos un botón deslizante, como un control de intensidad, que si desplazamos completamente hacia arriba abrirá la puerta y si lo hacemos hacia abajo, la cerrará.
Si salimos de la habitación con el mando y deslizamos el botón completamente hacia arriba o hacia abajo, y luego volvemos a la habitación, encontraremos la puerta como esperamos, abierta o cerrada respectivamente. Todo funciona como una puerta clásica.
Volvamos a salir de la habitación. Ahora deslizamos el botón hacia una posición intermedia. La intuición nos dirá que la puerta estará entreabierta, más o menos, según hayamos deslizado el botón más hacia arriba, la posición de abrir, o hacia abajo, la posición de cerrar.
Pero tenemos una puerta y un mando cuánticos, y en el mundo cuántico pasan cosas muy, muy raras. Fundamentalmente cuando no lo observamos.
Si volvemos a la habitación, veremos que la puerta está abierta o cerrada, pero no entreabierta, y si miramos al mando, veremos que este se ha movido mágicamente hacia la posición de arriba o de abajo. Esto ya no es tan normal. Pero tenemos una idea: hagamos lo mismo, pero manteniendo nuestro pulgar sobre el botón deslizante, cerca de la parte superior, pero no completamente arriba. Volvemos a la habitación y veremos que la puerta está abierta y nuestro dedo ha sido arrastrado por el botón deslizante, que se ha movido hacia arriba como si una fuerza lo impulsara hacia allí.
Lo que las reglas de la mecánica cuántica nos dicen que está pasando, es que cuando no estamos mirando la puerta y deslizamos el botón del mando hacia una posición que no sea los extremos (arriba o abajo), la puerta estará en una superposición de abierta/cerrada, no estará abierta ni cerrada, pero tampoco estará entreabierta. Sólo cuando entremos en la habitación y miremos la puerta, la veremos en uno de los dos estados: abierta o cerrada.
En este caso, ¿qué sentido tiene el disponer de un botón deslizante? porque, mientras deslizamos el botón apartándolo de los extremos, lo que manejamos es la probabilidad de que la puerta esté abierta o cerrada. Cuanto más deslizamos el botón hacia arriba, más probable es que, cuando miremos, la puerta esté abierta y, cuando lo deslizamos más hacia abajo, será más probable, que cuando miremos, veamos la puerta cerrada.
¿Y si ponemos una cámara en la habitación y observamos la puerta desde otro lugar? Pues en este caso, la puerta volvería a comportarse como describíamos al principio: sólo podremos deslizar el botón completamente hacia arriba o hacia abajo, otras posiciones del botón deslizante, no serán posibles.
Otra forma, quizás algo más sencilla, de entender el qubit y los efectos de la mecánica cuántica, sea el experimento de lanzar un par de monedas al aire. Pese a que esta experiencia podría describirse teóricamente con las reglas de la mecánica clásica, y podríamos conocer el resultado si pudiésemos describir con total precisión la geometría de las monedas y las fuerzas a las que se someten, en la práctica esto es tremendamente complicado y para nosotros el resultado es aleatorio. A efectos prácticos, el resultado, cara o cruz de cada moneda, sólo se manifiesta cuando caen las monedas. Mientras las monedas están en el aire, estarían en un estado simultáneo de cara y cruz o una superposición de estados. Por lo tanto, sólo cuando las observamos sobre el suelo, la realidad, cara o cruz, se manifiesta. Esto es lo que postula la mecánica cuántica: la observación hace colapsar un estado indeterminado en un estado concreto. La magia de todo esto es que el computador cuántico nos permite actuar sobre la forma en que lanzamos las monedas, y mientras éstas permanecen en el aire, para predecir resultados, es decir, utilizar esas características con efectos prácticos en la resolución de problemas.
Los valores de los qubits se representan habitualmente como |1>, |0> o de forma más general como|Y> = a|1>+b|0>, que sería el estado correspondiente a una superposición de los estados |1> y |0>.
Esta notación, que es común en la literatura en el dominio de la cuántica, viene heredada de la notación de Dirack, empleada para simplificar la representación de funciones de onda o funciones de probabilidad, que es cómo se representan matemáticamente los estados cuánticos en esencia. Pero no vamos a entrar en más detalle sobre esto.
En mucha literatura sobre computación cuántica se dice que el qubit puede tener los valores |0> y |1> simultáneamente. Esto estrictamente no es cierto, porque decir que el qubit tiene un determinado valor implica necesariamente que lo hemos medido y esa es una de las peculiaridades de la mecánica cuántica: el hecho de medir hace que el valor sea uno de los dos posibles: |0> o |1>. Mientras no midamos su valor, el qubit podría tener un valor que es una combinación de |0> y |1>, pero no tendrá ningún valor concreto. ¿Y qué importa el valor que podría tener, si cuando lo medimos sólo dos valores son posibles? Pues mucho, porque podemos actuar sobre el qubit de múltiples formas, antes de medir o leer su valor, y esto es una de las peculiaridades del computador cuántico que le proporciona un gran potencial.
Los qubits tienen otras propiedades muy interesantes. Una de ellas muy peculiar, es que no se pueden copiar. Esto es muy interesante cuando pensamos en aplicaciones relacionadas con la privacidad de los datos, pero resulta un problema cuando queremos minimizar los errores de cálculo.
Es complejo. Si. Pero así es el mundo en que vivimos, y miles de experimentos lo han demostrado en los últimos 40 años…. al menos por el momento. No vamos a introducir los conceptos de quarks o supercuerdas sobre un espacio de 10 dimensiones, porque no haría más que complicar lo que queremos hacer sencillo. Más adelante volveremos sobre este tema cuando tratemos la superposición cuántica pero ahora, hagamos un punto y aparte con esta información básica sobre el qubit, y pasemos a ver cómo se implementa físicamente.
Implementación física del Qubit
Para poder explotar las posibilidades que ofrece lo que hemos visto hasta ahora, tenemos que ser capaces de construir dispositivos en los que implementemos físicamente el qubit, es decir, construyamos una máquina que nos permita poder aislar los fenómenos cuánticos que se producen en el mundo microscópico y medir el estado del sistema. Esto ya da una idea del reto tecnológico que eso supone. El primer problema al que nos vamos a enfrentar, es ser capaces de aislar adecuadamente el sistema para evitar que perturbaciones externas alteren lo que pretendemos controlar y eso, a escala macroscópica, puede suponer un problema pero, a escala microscópica, es infinitamente más complicado.
Los modos de implementación física del Qubit, por otro lado, definen los tipos de computadores cuánticos que se están fabricando actualmente. Los que presentamos aquí són los ejemplos más relevantes, sin embargo la lista no es completa y sigue creciendo. Lamentablemente, para poder explicar algunas implementaciones de qubit, es necesario un conocimiento básico de algunas especialidades de la física (partículas o altas energías, materia condensada y cuántica). Intentaremos buscar la forma de simplificar las explicaciones e incluir referencias para profundizar en el conocimiento de los conceptos que se mencionan.
Lo primero que hay que aclarar es que, para representar a un qubit, podemos utilizar cualquier estado cuántico de dos niveles. Los sistemas de niveles múltiples se pueden utilizar también, si poseen dos estados que se puedan desemparejar con eficacia del resto (por ejemplo, el estado fundamental y el primer estado excitado de un oscilador no lineal). Hay varias opciones de este tipo de sistemas que se han puesto en práctica con diferentes grados de éxito. Por otro lado, distintas implementaciones de qubits podrían emplearse juntas para construir un computador cuántico, de la misma forma que se hace en la computación clásica, en donde un bit puede representarse mediante el estado de un transistor en una CPU o una memoria, por el estado de magnetización de una superficie en un disco duro o por la transmisión de corriente en un cable.
En la siguiente imagen se muestran algunos modos de implementar físicamente un qubit, y las compañías que están construyendo dispositivos cuánticos en base a esos modos.
Expliquemos brevemente estas implementaciones:
Anillos superconductores
Este sistema de implementación de qubits usa corrientes que circulan sin resistencia a través de un anillo de un material superconductor. Para inducir un estado excitado en el sistema, para dar un valor al qubit, se utiliza un haz de microondas transversal. Otras técnicas son posibles, en función de la utilidad del qubit (formar parte de una puerta cuántica determinada u otro propósito), pero coinciden en el uso de circuitos superconductores y el uso de microondas para la gestión de estados.
Algunos de los fabricantes que han apostado por el sistema de circuitos superconductores son: Google, con su sistema Sycamore de 54 qubits; IBM con su sistema Q de 65 qubits; Rigetty (empresa americana especializada en construcción de circuitos integrados cuánticos); y Quantum Circuits Inc. (QCI).
El más potente hasta el momento (octubre 2021) parece ser el Zuchongzhi 2.1 chino, de 66 qubits. Según han afirmado sus creadores, es 10 millones de veces más rápido que el superordenador más rápido del mundo y puede manejar cálculos que son 100 veces más complejos de los que puede manejar el Sycamore de Google.
Curiosidad: Si quieres saber cómo funciona un procesador cuántico basado en superconductores, esto se explica con todo detalle en el siguiente documento de la institución holandesa QuTech, que describe su sistema de 5 qubits: Starmon-5.
Las principales desventajas de los qubits superconductores son que requieren mantener el sistema a temperaturas próximas al cero absoluto, son muy susceptibles al ruido cuántico, tienen una reducida longevidad de los estados (del orden de microsegundos) y su conectividad a puertas cuánticas es limitada.
Por contra, esta tecnología es la más desarrollada hasta el momento contando con un mayor conocimiento en la comunidad académica y la industria, en cuanto a herramientas, tecnologías secundarias necesarias o técnicas de fabricación. Estos qubits se pueden construir a partir de las tecnologías actuales de fabricación de semiconductores.
Iones atrapados
La tecnología basada en iones atrapados es una de las primeras aproximaciones a la fabricación a gran escala de computadores cuánticos. Se basa en confinar iones, o partículas atómicas cargadas, mediante campos electromagnéticos. La primera propuesta de implementación con este modelo, fué realizada por un físico español (Ignacio Cirac) y otro austriaco (Peter Zoller) en 1995, según el modelo teórico desarrollado por el físico aleman Wolfgang Paul a mediados del siglo pasado.
Esta tecnología no es nueva. Los relojes atómicos más precisos se han construido por medio de esta tecnología. De hecho, las implementaciones actuales basadas en iones atrapados, usan, como los relojes atómicos, un isótopo del Yterbio para construir los qubits. Se usan láseres para eliminar un electrón de la capa exterior del átomo, convirtiéndolo así en un ion de iterbio (Yb+), que luego se confina mediante un campo electromagnético, formando una estructura lineal de qubits. Dado que esta tecnología es fácil de reconfigurar, se pueden crear cadenas de cientos de qubits.
Las principales compañías que han apostado o desarrollado esta implementación son, en primer lugar, la start-up californiana IonQ y por otro lado el gigante americano Honeywell (con la tecnología de IonQ), que ha anunciado su regreso al sector tecnológico después de 30 años ausente. Su propósito es luchar por el liderazgo en el mercado empresarial y prestar sus servicios de computación cuántica en modo Cloud. En verano del 2021 se fusionó con Cambridge Quantum Computing (CQ), líder global en software y algoritmos cuánticos, convirtiendo a la nueva división de Honeywell, Honeywell Quantum Solutions (HQS), en la compañía privada que ofrece, en modo servicio, acceso a su System Model H1 de 10 qubits, pensado para la explotación empresarial o industrial.
Curiosidad: IonQ se convirtió, en octubre del 2021, en la primera empresa de hardware de computación cuántica en cotizar en bolsa. Su lista de inversores incluye Google Ventures, Amazon Web Services y el fondo climático Breakthrough Energy de Bill Gates [Fuente: El Economista]
Dos de las ventajas principales de este sistema son: por un lado que no es necesario refrigerar a temperaturas extremadamente bajas, como en la mayoría del resto de implementaciones y, por otro, la elevada longevidad de los estados cuánticos. Esto la convierte en una de las arquitecturas más prometedoras para una computadora cuántica universal escalable.
Como contrapartida, son generalmente significativamente más lentas que sus equivalentes basadas en superconductividad. Aunque no es necesaria una refrigeración extrema, si deben estar en un alto vacío y su construcción requiere de la integración de tecnologías de un gran número de dominios: láser, sistemas ópticos, tecnologías de vacío, radiofrecuencia, microondas y equipos de control.
Curiosidad: La primera puerta lógica cuántica (equivalente cuántico a las puertas lógicas digitales), fue demostrada en 1995 usando la tecnología de iones atrapados.
Puntos cuánticos en silicio
Otra aproximación a la fabricación de qubits es el uso de semiconductores. Esto, evidentemente, ofrece varias ventajas. La principal, quizás, es aprovechar las herramientas y el conocimiento sobre casi tres décadas en la industria de microchips, razón esta por la que el gigante americano del diseño y construcción de semiconductores, Intel, se haya interesado por este método.
Los puntos cuánticos, también denominados átomos artificiales o sistemas de electrones de dimensión cero, son objetos en los que ciertos electrones están confinados en un pequeño recinto espacial de tamaño mesoscópico (de unas pocas decenas a unos pocos cientos de nanómetros), lo que permite que el electrón solo tenga ciertos valores propios para su energía. Cuando el material de base es el silicio, estaríamos hablando de puntos cuánticos de silicio, que tienen un gran potencial de aplicación como dispositivos optoelectrónicos y, en el caso que nos ocupa, también para la implementación física de qubits.
Algunos ejemplos de compañías o instituciones académicas que están trabajando en este tipo de implementaciones son Intel (como he mencionado antes), la universidad de Cambridge, Universidad de tecnología de Delft, Harvard y la universidad de New South Wales (UNSW). Según palabras del director de hardware cuántico de Intel, Jim Clarke;
“Intel [después de trabajar en tecnologías de superconductividad] giró hacia puntos cuánticos de silicio y qubits basados en spin por varias razones. Para empezar, los puntos cuánticos de silicio se parecen mucho a un transistor. Tienen una fuente, compuerta y drenaje y cuando se aplica un potencial, la corriente fluye a través del dispositivo. Intel ha desarrollado tecnología para controlar con precisión la cantidad de electrones que fluyen…”.
Algunas de las ventajas de esta implementación, como decía al principio, son el aprovechamiento del conocimiento e infraestructuras de la industria de semiconductores, la escalabilidad y también la fidelidad de los qubits. Es una de las tecnologías prometedoras para la construcción de sistemas cuánticos que se puedan explotar comercialmente.
Qubits topológicos
Este tipo de implementación de qubits es la más reciente a nivel teórico pero aún debe probarse su existencia, e incluso la observación experimental de la estructura básica que subyace a estos qubits. En líneas muy generales las operaciones de estos qubit están protegidas por una simetría topológica a nivel microscópico. Esto podría reducir, o incluso eliminar, las técnicas necesarias de corrección de errores que deben realizarse en todas las otras implementaciones. Si esta tecnología supera la fase experimental con éxito, podría ser una de las tecnologías con más futuro por su baja tasa de error y escalabilidad.
Este artículo explica, de forma bastante asequible, el fundamento teórico de la computación cuántica topológica y las dificultades que se están presentando en su realización práctica en la actualidad (septiembre del 2021)
Los Laboratorios Bell, del gigante finlandés NOKIA (antes propiedad de AT&T) y Microsoft, son dos de las compañías más relevantes que han apostado por esta tecnología, sin embargo aún hay evidencia práctica de que hayan sido capaces de construir un computador cuántico en base a esta tecnología.
La ventaja de esta tecnología es que puede proporcionar mayores tiempos de coherencia, mayor longevidad de los estados y también mayor fidelidad de los mismos, es decir, menos errores que otras implementaciones. La principal desventaja es que es un modelo teórico, no se ha demostrado experimentalmente.
Vacantes en diamante
Esta tecnología aprovecha un defecto natural presente en la estructura cristalina de los diamantes, tanto naturales como artificiales, para implementar el qubit. Este defecto consiste en que, en la red cristalina del diamante, en lugar de tener dos átomos de carbono, hay un único átomo de nitrógeno, quedando vacante la otra posición. A este defecto se le denomina centro nitrógeno-vacante, y sus propiedades mecano-cuánticas lo hacen apropiado para su uso como qubit.
Una empresa especializada en esta tecnología, que la emplea para diversos propósitos, fundamentalmente para la fabricación de sensores cuánticos para diagnóstico médico (detectores de biomarcadores de alta precisión), es la startup americana especializada en biotecnología, Quantum Diamond Technologies Inc (QDTI).
Una de las mayores ventajas de este modelo de implementación del qubit es que opera a temperatura ambiente, por lo que no son necesarios complejos sistemas criogénicos. Pese a que existen innumerables publicaciones científicas sobre el uso de esta tecnología para la implementación de qubits, no tenemos constancia de que se haya construido, hasta el momento, ningún computador cuántico en base a ella.
Fotónica Cuántica
Una última tecnología de implementación física de qubits, que no aparece en la imagen, pero que resulta relevante considerar, es la basada en fotónica, utilizando, generalmente, haces de láser.
La idea tras esta implementación física de qubits, es el uso de los fotones (las partículas cuánticas asociadas a la luz), que son candidatos ideales para los dominios de la información cuántica y las telecomunicaciones cuánticas, por su ausencia de masa y su débil interacción entre ellos y con el entorno.
En esta tecnología los qubits son, habitualmente, fotones individuales con dos polarizaciones diferentes (arriba-abajo e izquierda-derecha), que sirven como los dos estados del qubit. Las puertas lógicas de un solo qubit se pueden realizar utilizando dispositivos ópticos estándar, como cambiadores de fase y divisores de haz.
Algunas empresas que se han especializado en esta tecnología son: la startup canadiense Xanadu, que ofrece servicios de computación cuántica en la nube con su sistema propio basado en fotónica; y la startup californiana Psi Quantum, que ha anunciado ser capaz de construir un computador cuántico de 1 millón de qubits con esta tecnología.
En oriente, China ha revelado hace poco tiempo (finales del 2020), sus avances tecnológicos en computación cuántica con la publicación en varias prestigiosas revistas (Science, Physical Review, MIT Technology Review, entre otras), de sus avances en la demostración de la supremacía cuántica con dos tecnologías diferentes de computadores cuánticos. Uno de ellos está basado en qubits fotónicos, el Jiuzhang, cuya última versión (Jiuzhang 2.0) ha conseguido enlazar 113 fotones. Esta revelación, de investigadores de la Universidad de Ciencia y Tecnología de China (USTC), convierte a este país en líder mundial en la demostración de la supremacía cuántica.
Las principales ventajas de esta implementación son: por un lado, que puede operar a temperatura ambiente, por otro, la larga longevidad de estados y que puede ser implementada en chips de silicio, con el consiguiente aprovechamiento de toda la infraestructura y técnicas disponibles en la industria de semiconductores.
Como contra, podríamos indicar que esta tecnología aún es incipiente y se deben resolver temas clave como la conectividad qubit y su escalabilidad en algunos casos (como el de China cuya máquina no es configurable), aunque la aproximación basada en circuitos integrados fotónicos que sigue Xanadu, podría resolver estos problemas.
No vamos a entrar en más detalles de cada uno de ellos. Sólo queremos poner de manifiesto que hay diferentes formas de implementar físicamente los qubits. Cada uno tiene sus pros y sus contras. Hay otras formas de implementación que no hemos contemplado aquí, como las incipientes de átomos artificiales de silicio y las denominadas de átomos neutrales, y seguramente habrá nuevas formas en un futuro próximo.
Curiosidad: En el mundo occidental asumimos que IBM y Google lideran la tecnología de la computación cuántica y son los más capaces para demostrar la supremacía cuántica en base a sus respectivas construcciones (como ocurrió con Google en octubre de 2019, aunque posteriormente IBM puso en duda), sin embargo, a finales del 2020, dos artículos publicados en varias prestigiosas revistas científicas (véase por ejemplo el número 127 de la revista Physical Review Letters de octubre de 2021), ponían al equipo de Jian-Wei Pan, de la universidad de ciencia y tecnología de China, a la cabeza de esta competición, habiendo demostrado la supremacía cuántica, no sólo con un computador cuántico, sino con dos, construidos en base a dos tecnologías diferentes (circuitos superconductores de 66 qubits y haces de láser de 113 qubits). También es cierto que en el segundo sistema, el fotónico, no es configurable y se ha diseñado para resolver un sólo tipo de problema.
Los objetivos que se persiguen en todas las implementaciones físicas de qubits, y que por el momento ningun sistema cumple completamente, son:
- Operar a temperatura ambiente. Actualmente la mayoría de los computadores cuánticos construidos requieren que los qubits estén encerrados en refrigeradores de dilución (de ahí su forma característica de cilindro suspendido), para obtener temperaturas de unas milésimas de grados Kelvin (250 más fríos que el espacio exterior)
- Mayores tiempos de longevidad de los estados. O mayores tiempos de decoherencia, es decir, que se pueda mantener el estado de los qubits durante el tiempo suficiente para poder ejecutar algoritmos complejos.
- Fidelidad. Garantía de que el qubit mantiene su estado tras una operación
- Sencillez de fabricación y operación. En algunas tecnologías, como las basadas en semiconductores y en parte las fotónicas, la industria está preparada para producir parte de los componentes necesarios para la fabricación industrial de computadores cuánticos. En otras, se precisa toda una nueva industria auxiliar, para poder abordar una producción industrial.
- Escalabilidad. Capacidad para incrementar el número de qubits de forma lineal y mantener la funcionalidad y la interoperabilidad entre qubits.
Un problema significativo de los computadores cuánticos es la decoherencia. Para no complicarlo en exceso, digamos que es el tiempo en que los qubits mantienen el valor que les hemos asignado. En la imagen anterior se muestra el valor estimado de longevidad del qubit en cada una de las implementaciones físicas que hemos mencionado.
Esto no ocurre en un computador clásico. Los bits mantienen su valor mientras el computador tenga suministro eléctrico (salvo en el caso de las memorias persistentes o los dispositivos de almacenamiento, que pueden mantener su valor durante decenios aun en ausencia de suministro eléctrico), pero los qubits, no. Estos tienden a volver a su estado fundamental muy rápidamente, en cuestión de microsegundos, y no es fácil aumentar este valor. La decoherencia cuántica sería la tendencia que tienen los qubits de perder el valor que le hayamos asignado. No es exactamente así, pero a efectos prácticos, para el propósito de esta introducción a la computación cuántica, es más que suficiente.
Otro reto tecnológico con el que se enfrentan múltiples de las implementaciones físicas de qubits que hemos visto, es el de mantener el sistema bajo condiciones extremas de refrigeración. Aquí es donde entran en escena los refrigeradores por dilución, que dan la forma característica a muchos de los computadores cuánticos.
Un refrigerador por dilución es un dispositivo criogénico que es capaz de proporcionar un enfriamiento continuo a temperaturas extremadamente bajas (del orden de milésimas de grado Kelvin), siempre que no haya partes móviles en la región de más baja temperatura. El enfriamiento se produce con isótopos de Helio (Helio-3 y Helio-4). No voy a entrar en detalles de cómo funciona, pero para quién esté interesado, este artículo de Antonio Corcoles, lo explica muy bien.
Curiosidad: Estos dispositivos criogénicos no son algo nuevo, ni los únicos para llegar a las temperaturas requeridas para muchos de los sistemas cuánticos construidos actualmente (del orden de mili-Kelvins). Existen otros sistemas criogénicos como, por ejemplo, el refrigerador de desmagnetización adiabática, que pueden alcanzar estos órdenes de magnitud, pero son menos prácticos para mantener el sistema a esas bajas temperaturas durante largos períodos de tiempo. Es por esto que la refrigeración por dilución se ha convertido en un estándar de facto para todos los computadores cuánticos que, por su diseño (tipo de implementación física de los qubits), deben operar a muy bajas temperaturas.
Un problema, no sólo asociado a la refrigeración, sino más bien a la escalabilidad del diseño en general, es que varias implementaciones de las descritas anteriormente, como es el caso de anillos superconductores, requieren de cables (o guías de ondas, para ser exactos), que controlan los estados de los qubits. Si los qubits se pueden implementar físicamente en un un bloque, al que se suele referir como Quantum Processor o Quantum Processor Unit (QPU, por su equivalencia con la CPU en la computación digital, aunque no es exactamente lo mismo), los equipos de radiofrecuencia que generan las señales de control para el control de los qubits, deben estar fuera del refrigerador (estos tampoco podrían operar a tan bajas temperaturas), lo cual obliga a que el diseño del computador cuántico incluya unas mangueras de “cables” desde los equipos de control hasta el interior del corazón del refrigerador donde reside la QPU. Si hablamos de una decena o centena de qubits, no hay que preocuparse, pero ¿Qué ocurre si queremos construir un computador cuántico de un millar o un millón de qubits? Obviamente, esto se convierte en un problema de magnitud nada despreciable. Esto nos recuerda a las incómodas válvulas, y programación por cableados, de nuestra infancia en la computación digital que, tampoco está tan lejos en el tiempo. Ochenta años después, volvemos a la infancia con este nuevo paradigma de computación.
Todo esto da una idea de lo problemático de construir un computador cuántico y los principales retos técnicos y operativos que supone.
Después de este breve recorrido por el mundo real en las implementaciones físicas, volvemos a los fundamentos teóricos para explicar un fenómeno muy importante en la comprensión de la computación cuántica.
La superposición cuántica
Como hemos mencionado antes, los qubit pueden tener un valor 0, 1 o una combinación lineal de 0 y 1. Este último es el estado más probable de una partícula cuántica aislada. Lo curioso de esto, es que no podemos saber a priori si la partícula tiene un valor u otro. Es cuando medimos, como hemos dicho antes, que el sistema colapsa en un determinado valor. Esta forma de interpretar la mecánica cuántica es el modelo más ortodoxo o también conocido como interpretación de Copenhague (formulada por el físico Niels Bohr en 1927). Hay otras interpretaciones posibles, pero no vamos a entrar en ellas.
El que una partícula cuántica pueda estar en cualquier estado posible, da lugar a paradojas difíciles de entender, porque no tienen equivalencia en el mundo macroscópico que observamos. Paradojas como la del experimento mental del gato de Schrödinger de la que, seguramente, habréis oído hablar. Este experimento mental presenta un gato hipotético, encerrado en una caja opaca completamente y aislada del exterior. La caja tiene un matraz con veneno y un dispositivo con una partícula radiactiva. Si el dispositivo detecta radiación libera un martillo que rompe el frasco, liberando el veneno y matando al gato. Según la interpretación de Copenhague, después de un tiempo, el gato está al mismo tiempo vivo y muerto, es decir, está en un estado de superposición cuántica, ya que está vinculado a un evento subatómico aleatorio que puede ocurrir o no, y sólo cuando abramos la caja, veremos si el gato está vivo o muerto. Esta paradoja fue fruto de acaloradas discusiones entre Schrödinger y Einstein.
Pero también hay situaciones observables que son difíciles de entender, e imposibles de explicar, si sólo vemos el mundo según las reglas de la mecánica clásica regida por las leyes de Newton. Uno de estos sucesos es el experimento de la doble rendija, o experimento de Young, que se puede reproducir en cualquier laboratorio, incluso en vuestra propia casa. ¡¡Tenemos aquí un nuevo TikTok challenge!!
Bromas aparte, este experimento, que fue diseñado por el científico inglés Thomas Young en 1801 para discernir la naturaleza ondulatoria o corpuscular de la luz, se ha convertido en una experiencia fundamental para demostrar una característica del mundo cuántico, como lo es la dualidad onda-corpúsculo de la luz y de otras partículas subatómicas como los protones, los neutrones o los electrones.
Muchos experimentos (como el efecto fotoeléctrico y la producción de rayos X), ya habían “demostrado” la naturaleza corpuscular de la luz, es decir, que la luz estaba compuesta de partículas de energía, a las que se les denominó fotones. Si eso fuera siempre así, el experimento de Young debería mostrar en la pantalla un patrón similar a la figura de la izquierda en la imagen siguiente, sin embargo, lo que se obtiene en el experimento es la que aparece a la derecha, que solo es explicable como un patrón de interferencia de una onda. Luego la luz, según este experimento, debería ser una onda.
La realidad es que no es ninguna de las dos cosas, o quizás ambas a la vez.
Los objetos macroscópicos están formados por miles de millones de átomos, pero estos átomos no se comportan como los objetos macroscópicos que estamos acostumbrados a ver en el mundo real, en los que algunos se comportan como partículas (una pelota o la manzana de Newton) y otras como ondas (como la luz, el sonido o las ondas que se producen en un lago al lanzar una piedra), y todos cumplen las leyes de la física clásica, las leyes de la mecánica de Newton. En esencia, la materia es, y se comporta, de forma diferente a cómo la percibimos.
En resumen, este experimento es capaz de desvelar dos de las más grandes y desconcertantes verdades de la naturaleza cuántica de la materia:
- A escala subatómica las partículas tienen un comportamiento dual. Es decir, la materia se comporta como una onda o como una partícula.
- El hecho de observar o no el experimento, hace que la materia se comporte como una onda o como una partícula.
Los átomos, partículas subatómicas y los fotones, no tienen equivalencia en el mundo macroscópico. Son algo diferente, que bajo determinadas circunstancias se comportan como ondas y bajo otras como partículas. ¿Cómo se puede comprender esto? Pues hay una forma muy fácil de visualizarlo. Imaginad que vivimos en un mundo en el sólo existen dos estados de la materia: el sólido y el gaseoso. ¿Cómo podrías explicar un material que presenta algunas características de los sólidos, pero también otras de los gases? ¡No podríamos explicar qué es el agua o cualquier líquido! Pero que no sepamos explicarlo, o entenderlo, no implica que no exista, que no sea real.
El entrelazamiento cuántico
Otra propiedad característica de los sistemas cuánticos es el entrelazamiento. Agarraos a vuestras sillas porque vienen curvas…
Este es uno de los fenómenos más complejos de explicar y más contrarios a nuestra percepción del mundo real macroscópico. Además es un concepto con el que Einstein nunca estuvo de acuerdo. Fue objeto de controvertidas discusiones en la comunidad científica y aún lo sigue siendo.
El entrelazamiento es un fenómeno cuántico, sin equivalente clásico, en el cual los estados cuánticos de dos o más objetos se describen mediante un estado único que involucra a todos los objetos del sistema, aun cuando los objetos estén separados espacialmente incluso a distancias enormes. Esto da lugar a correlaciones entre las propiedades físicas observables. Por ejemplo, es posible preparar (enlazar) dos partículas en un solo estado cuántico de espín nulo, de forma que cuando se observe que una gira hacia arriba, la otra automáticamente recibirá una «señal» y se mostrará como girando hacia abajo. Y esto sería así aunque las partículas estuvieran cada una en un extremo del universo conocido.
Esas fuertes correlaciones hacen que las medidas realizadas sobre un sistema, parezcan estar influyendo instantáneamente en otros sistemas que están entrelazados con él, y sugieren que alguna influencia se tendría que estar propagando instantáneamente entre los sistemas, a pesar de la separación entre ellos.
No obstante, no parece que se pueda transmitir información clásica a velocidad superior a la de la luz mediante el entrelazamiento, porque no se puede transmitir ninguna información útil a más velocidad que la de la luz. Sólo es posible la transmisión de información usando un conjunto de estados entrelazados en conjugación con un canal de información clásico. Pero, por necesitar de ese canal clásico, la información útil no podrá superar la velocidad de la luz. Este fenómeno se ha denominado teleportación cuántica.
El entrelazamiento es la base de tecnologías en fase de desarrollo como la criptografía cuántica, y se ha utilizado en experimentos de teleportación cuántica. En esencia, esta propiedad parece que podría permitir velocidades mayores a la luz y violar el pricipio de causalidad (por el que las causas preceden a los efectos), lo cual entraría en contradicción, a parte de las paradojas temporales, con la relatividad general. Teorías actuales como la del superdeterminismo, le darían la razón a Einstein y convertirían nuestro universo en algo determinista desde su formación, pero para muchos científicos esto no resulta plausible. Por el momento, como mencionamos en el primer artículo de esta serie (“|QC-1> El mundo de las cosas chiquititas”), desde 1982, fecha en que un físico francés demostró con el experimento descrito por Bell en su teoría de la desigualdad, que Bohr tenía razón; la superposición cuántica es posible y funciona como lo hemos descrito.
En cualquier caso este es un tema apasionante que trasciende la ciencia y la tecnología para entrar en el dominio de la filosofía.
¿No has entendido nada? No te preocupes, los científicos tampoco lo tienen absolutamente claro. El entrelazamiento puede ser reproducido en laboratorios, pero aún no se comprende del todo cómo se produce. Podríamos resumir todo esto en dos ideas simples aunque no muy precisas:
- Con el entrelazamiento, varios qubits operarían como un único sistema y no como sistemas independientes.
- Si medimos el estado, o valor, de uno de dos qubits entrelazados, automáticamente sabríamos el estado, o valor, del otro.
El efecto túnel
Otra propiedad fundamental que debemos conocer, para entender ciertas características de los computadores cuánticos, es el efecto túnel. Este es un efecto muy curioso, que también se opone a nuestra percepción del mundo macroscópico, y que sin embargo ha sido demostrado en miles de experimentos, es explicado por las reglas de la mecánica cuántica y tiene innumerables aplicaciones prácticas.
Para ilustrar el efecto túnel, imaginemos una bola maciza que dejamos caer sobre el borde interior de un recipiente semiesférico grande, alineado con otro más pequeño.
Si la energía de la bola no es suficiente, es decir, si no la dejamos caer desde muy alto, la bola oscila dentro del primer recipiente sin pasar al segundo. Por otro lado, si la energía potencial de la bola es la suficiente, a partir de una determinada altura, al dejar caer la bola, ésta pasará al segundo recipiente, donde se deslizará por sus paredes hasta detenerse en el fondo. Eso es lo que observamos en el mundo real macroscópico y lo que esperaríamos encontrar en el microscópico. Pero no es así. En el mundo microscópico, bajo determinadas circunstancias, la bola acabará en el recipiente pequeño, aunque no la hayamos dejado caer desde la altura necesaria para ello. Es como si atravesase la separación entre ambos recipientes, como si crease un túnel entre ellos y se desplazara a través de él. Realmente no hay tal túnel, es la explicación que le damos a un resultado matemático que predice que existe una probabilidad no nula de que la partícula aparezca al otro lado de la barrera de potencial, y que los experimentos confirman que así es.
Como hemos dicho anteriormente, este fenómeno es compatible con las leyes de la mecánica cuántica y, no solo ha sido probado infinidad de veces en el laboratorio, sino que existen un gran número de aplicaciones prácticas de dispositivos basados en este efecto. Por poner un ejemplo muy cotidiano, podemos encontrar diodos de efecto túnel en casi cualquier sintonizador de TV. Pero, en general, la mayor parte de la electrónica moderna tiene su base en el efecto túnel.
Este es un fenómeno cuántico cuyas consecuencias las vemos en el mundo clásico digital. Como mencionamos en el artículo anterior, la miniaturización de componentes electrónicos ha llegado a un punto tal, en el que las distancias entre componentes son tan pequeñas que se puede percibir el efecto túnel entre ellos, por lo que es necesario tener en cuenta las reglas de la mecánica cuántica a la hora de diseñar microchips.
La explicación física simplificada de este fenómeno no es muy compleja. En esencia consiste en que la función de onda de una partícula, que se enfrenta a una barrera de potencial, tiene una determinada probabilidad no nula de atravesar la barrera, aún no teniendo la energía suficiente para superarla, cuando la anchura de esta barrera es suficientemente estrecha. Una explicación física muy didáctica la puedes encontrar en este artículo de El blog de Ciencia de Mariana Toledano Diaz.
Con lo visto hasta ahora, estamos en disposición de entender cómo se puede construir un computador cuántico y qué fenómenos determinan las reglas rigen su funcionamiento. Ya estamos en disposición de entender qué podemos hacer con él, o al menos con un tipo de computadores cuánticos generalistas que se basan en el equivalente a las puertas lógicas que vimos en el artículo sobre computación digital. Hay otro tipo de computadores cuánticos que sólo pueden resolver problemas de optimización combinatoria, pero para eso tenemos que introducir teóricamente la optimización antes de explicar cómo los fenómenos cuánticos son capaces de ayudar en este campo… Todo a su tiempo.
En el siguiente artículo de esta serie, “|QC-4> Encendiendo los fogones”, hablaremos de la programación de un computador cuántico generalista.